SynapTree™, VLA-Powered Autonomous Intelligence
온 디바이스 VLA(Vision-Language-Action) 아키텍처를 기반으로,
실제 환경을 인식하고 언어로 이해하며, 행동을 생성하는 SynapTree™는
기존 라이나 기반의 경로설계와 SLAM 자율주행의 한계를 넘어
차세대 AI 자율주행 시대를 열어 갑니다
차세대 자율주행 솔루션 SynapTree 는 온디바이스 기반의 VLA 구조를 통해 공간 추론, 오브젝트 인지와 판단, 경로 계획, 자율주행 실행까지 전 과정을 로컬에서 자율적으로 수행하며, 실제 서비스 현장에서 검증된 최적화된 자율주행을 제공합니다.
Context-Aware Autonomous Navigation with VLA
VLM과 센서 융합 기반의 자율주행 알고리즘
SynapTree™는 LiDAR, 카메라, IMU, GPS 등 복합 센서 데이터를 통합하여 환경을 정밀하게 인식하고, 자체 VLA 모델을 통해 주행 맥락(Context)을 이해하여 최적의 주행 경로를 실시간 생성합니다.
On Device VLA [Vision-Language-Action]
SLAM-Free Navigation
Camera-Perception
Context-Aware Mobility
LLM-Integrated Pathfinding
온 디바이스 VLA를 위한 SynaAI Stack
SLM (SynaAI 3B, Quantized) 과 VLM 기반으로 경량화된 SynaAI VLA 는 비전 추론을 통한 컨텍스트와 행동을 생성하여,
실시간 변화하는 환경에서 안전하고 효과적인 자율주행을 제공합니다
VLMN(Vision-Language Model Navigation)과 RFM
온 디바이스 RFM 구현을 위하여 독자 알고리즘으로 구현한 특허 솔루션, SynaAI® Stack 은 온디바이스 환경에서 최적화된 Vision-Language-Action(VLA) 기반의 실시간 추론과 해석, 의사결정, 행동 실행을 모두 로컬 디바이스에서 처리하는 초경량 멀티모달 AI 스택으로, 이를 기반으로 구현된 VLMM Framework는 Vision-Language Multimodal Framework는 멀티모달 인코더를 통해 시각 정보와 음성 정보를 통합하고, 이를 Tokenizer를 통해 SLM에 전달 가능한 프롬프트로 변환하여 실행 가능한 행동 컨텍스트로 변환합니다. ROS2 기반 Robot Controller는 기존의 Waypoint 생성, Path Planning, Behavior Control 등과 효과적으로 통합되어 비전 기반의 자율주행과 로봇 행동 실행 모듈로 이어집니다.
VLA( Vision-Language-Action ) 기반 자율주행 코어, VLN(iSLAM)
다중 카메라를 통하여 실시간 취득되는 AI Vision Object Detection, Population(군집/밀집도) 등 추출을 통하여, 공간정보와 주행 제약조건, 위험도, 가중치를 반영하는 VLA Datasets로를 생성하여 실시간 파이프라인으로 제공합니다.
- iSLAM Planning : 위치추정·지도화와 연동된 경로 계획(semantic costmap 포함)
- 자율주행 NODE M. / SW TF”는 Nav2/SLAM/컨트롤러 구성과 미들웨어를 통하여, VLA가 만들어낸 ‘의미정보’가 iSLAM 기반 내비게이션의 costmap과 정책에 들어가, 사람·군집·고온·특이 상황을 고려한 상황인지(컨텍스트-어웨어) 주행을 제공
Synaptree® V3, Adaptive Exploration
자율탐사 알고리즘 (Frontier Explore)을 통하여 미지 영역을 실시간 공간을 탐지하고 지도를 갱신하는 Adaptive Exploration
Frontier Explore 는 Map 데이터 없이 미지의 공간을 동적으로 지도를 갱신하는 Adaptive Exploration을 제공하며, 추론된 비전 인식 데이터를 공간 좌표로 그라운딩하고, 언어로 주행을 제어, 운영하는 자율주행 플랫폼으로, Synaptree V3는 미지 공간에서도 스스로 탐색 및 지도화(Frontier)· 회복주행(Wall-follower)을 수행하며, VLA 기반 사물/장소 map/odom/base_link 좌표계에 통합하고 LLM이 자연어 명령을 경로·행동 정책으로 변환하는 ‘언어–공간 융합’ 자율주행을 제공합니다
SynapTree-Explore Manager (BT/SMACC2)는 중앙 오케스트레이션 유닛으로서 전반적인 자율 탐색 프로세스를 관리합니다.
이는 실시간 위치 추정 및 동시 지도 작성을 담당하는 iSLAM / Mapping (RTAB-Map/iSLAM)과 연동됩니다. iSLAM의 출력으로부터 시스템은 미지의 영역에서 지도를 동적으로 갱신하는 적응형 탐색 알고리즘인 Frontier Explore (explore_lite/m-explore)로 진행되며, 동시에 Wall-follower (PID Local Controller)는 회복 주행 시나리오를 처리합니다. 이러한 구성 요소들을 통합하는 SynapTree® V3는 VLA 기반 비전 인식 데이터를 사용하여 이를 공간 좌표로 그라운딩하고, 언어 명령을 통해 주행을 제어 및 운영합니다. LLM(언어-공간 융합)은 자연어 명령을 실행 가능한 경로 및 행동 정책으로 변환하여 미지의 공간과 환경에서도 상황 인지 주행을 가능하게 합니다.
자율주행 알고리즘을 검증하고 확장 가능한 시뮬레이션과 개방형 개발환경
능동적인 탐사와 자율주행의 자동 전환, 동적/정적 변화의 분리 갱신, VLA 의미(언어와 비전) 기반 회피, 목적지 제어, 제약이 정교하게 통합된 Synaptree™ V4 는 동적 변화가 극대화된 환경에서 로봇의 운용을 위한 Adaptive Exploration & Dynamic Mapping을 제공하며, m-explore-ros2 , Nav2 + wavefront-frontier 에 대하여 ROS2용 explore_lite 포트, Nav2 웨이포인트 팔로워와 결합한 프런티어 탐사는 개발단계에서 다양한 방법으로 시뮬레이션을 제공합니다.
차세대 공간 추론과 경로 설계를 위한 SynaAI Edge VLA
SynaAI V2은 자연어 프롬프트와 시각 데이터를 결합해, 복잡한 환경을 실시간으로 이해하고 분석하며 대응할 수 있도록 설계된 온디바이스 비전-언어 모델(VLM)을 통하여, 공간 인식과 동적 경로 계획을 실시산 수행하며, 변화하는 상황에서도 자율주행이 가능하도록 지원합니다
SynaAI V2 기반의 자율주행 플랫폼 시냅트리 솔루션은 2025년 2월 인천국제공항에서 실증서비스를 시작으로, 삼성전자와 협업하며 국내 최초 상용화된 VLA 자율주행 AI 플랫폼으로, 다양한 차세대 로봇 프로젝트에서 채택하고 있습니다.
Integrit는 확장성과 고성능을 겸비한 차세대 온디바이스 AI 플랫폼을 지속적으로 확장, 고도화하고 있습니다.
온 디바이스 AI 로 고도화되는 차세대 자율주행
첨단 AI 로보틱스, AI 전환의 현장에는 인티그리트의 차세대 온 디바이스 플랫폼이 함께 하고 있습니다.
인티그리트의 온디바이스 AI 기반 자율주행, 로보틱스, 공간지능화의 핵심으로 실제 현장에 도입되어 운영되고 있습니다.
VLA (언어-비전-행동) 기반 자율주행 솔루션, Synaptree® V3는 첨단 AI 서비스 로봇과 스마트 모빌리티, 보스턴 다이내믹스 스팟, 홈 에이전트 로봇 등 다양한 AI 로봇 기종에서 검증되어 인천국제공항, 삼성전자, 더현대, 파크원, HL만도 등 실제 현장에서 차세대 AI 기술로 소개되고 있습니다