🔎 한 문단 요약
기사에 따르면 MS 리서치는 로보틱스용 피지컬 AI 모델 ‘로-알파(Rho-alpha, ρα)’를 공개했습니다.
로-알파는 기존 VLA를 확장한 VLA+를 내세우며, 시각·언어 입력뿐 아니라 촉각(Tactile)·힘(Force) 센싱 데이터를 결합해 가려짐(오클루전)이나 어두운 조도처럼 “카메라에 안 보이는 상황”에서도 미세 조정을 가능하게 한다고 설명합니다.
또한 양손(Bimanual) 엔드투엔드 최적화, 시뮬(아이작 심)+강화학습 기반 합성 데이터, 그리고 현장에서 즉시 반영되는 Human-in-the-loop 학습 파이프라인이 핵심 포인트로 소개됩니다.
로-알파는 기존 VLA를 확장한 VLA+를 내세우며, 시각·언어 입력뿐 아니라 촉각(Tactile)·힘(Force) 센싱 데이터를 결합해 가려짐(오클루전)이나 어두운 조도처럼 “카메라에 안 보이는 상황”에서도 미세 조정을 가능하게 한다고 설명합니다.
또한 양손(Bimanual) 엔드투엔드 최적화, 시뮬(아이작 심)+강화학습 기반 합성 데이터, 그리고 현장에서 즉시 반영되는 Human-in-the-loop 학습 파이프라인이 핵심 포인트로 소개됩니다.
- ‘+’의 의미: 보이지 않는 정보(촉각·힘)까지 행동에 반영
- 양손 조작: 두 팔 협업을 효율적으로 최적화
- 데이터 전략: 시뮬 합성 + 실제 궤적 + 웹 규모 VQA 통합
한 줄로 말하면
“로봇이 일하면서 동시에 배우게” 만든 VLA 확장 아키텍처입니다.
“로봇이 일하면서 동시에 배우게” 만든 VLA 확장 아키텍처입니다.
업데이트: 자동 표시 · 읽는 시간: 자동 계산
