buy essay

The Presence of
AI in Every Moment,
Stella

스텔라 시리즈는
실시간 비전 추론과 다중 LLM
하이브리드 아키텍처로
새로운 사용자 경험을 제공하는
혁신적인 대화 에이전트 플랫폼입니다

  • 차세대 인터랙티브 AI 플랫폼, 스텔라 시리즈는 온디바이스 LLM, VLA, 구조를 기반으로, 비전 AI와 언어모델을 통합하여 시선·제스처·음성·표정 등 멀티모달 입력을 분석하고 이해하며 반응하는 새로운  대화 기반 에이전트 플랫폼입니다.   개방형 AI 플랫폼으로 설계되고 다양한 폼 팩터로 확장 가능한 스텔라는 맞춤형 마케팅, 안내, 교육, 전시, 리테일, 대형 공공시설 등 다양한 산업현장과 공간에서 손쉽게 적용될 수 있으며,  파트너사의 독자적인 AI 모델 및 서비스와 유연하게 연동되는 대화형 AI 경험을 제공합니다.

AI 가 함께하는 공간
스텔라는 '공간 인텔리전스'를 새롭게 정의합니다

TO your Customer Experience

스크린 너머, AI가 현실과 만나는 곳”
LLM은 이미 우리의 스마트폰과 인터넷 속에 있습니다.
이제 일상의 현실 공간 속에서 지능이 작동해야 할 때입니다.

AI 시대, 새로운 고객경험을 제공합니다

차세대 AI, 스크린 밖의 현실 공간에 있습니다
인티그리트는 첨단 AI 기술을 일상의 경험으로 확장하고 있습니다.

리테일 시장의 변화와 AI 테크 트렌드

AI 인터페이스 패러다임은 지금, 클라우드 중심에서 온디바이스 인텔리전스로, 터치 중심에서 멀티모달 인터랙션으로 빠르게 전환되고 있습니다. LLM(대규모 언어모델)은 이제 연구실의 기술이 아니라, 스마트폰·웹·검색·커뮤니케이션 도구 속에서 이미 우리의 일상이 되었습니다. 매일 새로운 AI 기술이 등장하고 개인 기기에 통합되고 있지만, 정작 오프라인 공간 — 매장, 전시장, 고객 접점 — 에서 AI를 활용할 수 있는 인터페이스는 여전히 제한적입니다. 이제는 현실 공간에서도 지능이 작동하는 새로운 인터페이스가 필요합니다.

시장의 요구와 격차

이제 고객은 상황을 이해하고 개인화된 응답을 제공하는 지능형 인터페이스를 기대합니다. 하지만 오늘날의 AI는 여전히 온라인 환경에 머물러 있으며, 오프라인의 ‘실제 접점’에서 사람과 교감하는 인터페이스는 부족합니다.
- 오프라인 한계: 실제 공간과 사용자 환경을 반영하지 못함
- 문맥 인식 부족: 사용자의 상태나 맥락을 실시간으로 해석하지 못함
- 개인화 한계: 반복적이거나 정적인 응답
- 지연·연결 문제: 클라우드 의존으로 실시간 반응 어려움
- 도입 장벽: 복잡한 인프라와 높은 비용

새로운 디지털 인터랙션

V Stella는 사람과 지능의 상호작용 방식을 바꾸는 AI 에이전트 플랫폼입니다. 비전·모션·대화를 하나의 동적 경험으로 결합하여, 말하는 AI를 넘어 보고, 이해하고, 반응하는 인터랙션을 제공합니다.

V Stella는 시각 인식, 표정·행동 분석, 실시간 제너레이티브 모션 제어를 통합한 Physical AI 아키텍처를 기반으로, 보고(Perceive)–이해하고(Understand)–반응하는(Respond) 지능형 인터페이스를 구현합니다.

인티그리트의 특허 기반 메니퓰레이터–디스플레이 결합 기술을 통해 화면과 모션 유닛이 하나의 시스템처럼 동작하며,  사용자의 시선·위치·움직임을 인지하고, 감정과 맥락을 반영한 실시간 모션 및 시각 피드백을 생성합니다.

기존 터치스크린 중심 디바이스와 달리, V Stella는 메뉴 내비게이션에 의존하지 않습니다. 버추얼 휴면이 제공하는 새로운 경험을 제공합니다 , 자연스러운 대화, 문맥 인지, 적응형 모션을 통해 사용자를 능동적으로 안내합니다.

V Stella는 AI가 물리적으로 존재하고 직관적으로 소통하는 새로운 인터랙션 패러다임을 제시하며, 일상에 AI를 현실로 만들어 갑니다.

On-device LLM integration

SynaAI runs a 3B lightweight model locally for instant response

Hybrid LLM architecture

Connects to Qualcomm A100 Edge AI and cloud-based LLMs

Multimodal interface

Supports voice, facial expression, gesture, and more

Physical AI Architecture

Generative Real-time Movement AI (Motion Generator) with Vision AI

Open and extensible

Ready to integrate with enterprise LLMs, APIs, and services

Meet Our Tech Insight

Key Features & User Experience

스텔라는 고성능 하드웨어, 경량 멀티모달 AI 소프트웨어 스택, 그리고 유연한 하이브리드 LLM 아키텍처를 통합하여 온디바이스 지능, 엣지 추론, 클라우드 연산의 강점을 하나의 시스템으로 통합하였습니다. 

Qualcomm® QCS8550 SoC와 SynaAI® 소프트웨어 스택을 기반으로, 스텔라는 시각·음성·동작을 통한 실시간 멀티모달 인터랙션을 구현합니다.
로컬 3B 모델부터 온프레미스 70B, 클라우드 멀티모달 추론에 이르는 3단계 하이브리드 LLM 구조는 환경과 상황에 최적화된 문맥 인식과 지능적 응답을 제공합니다.

하드웨어·펌웨어·AI 모델이 긴밀히 통합된 이 아키텍처는 초저지연·고성능·확장형 개인화 지능을 실현하며, 물리적 AI 기기의 사고와 반응 방식을 새롭게 정의합니다.

User Awareness

Facial recognition, gaze tracking, location, age/gender, emotion

Multimodal Inputs

Face and Voice, gesture, touch, Behavior

Conversational Interface

LLM-driven natural language responses + visual display

Personalized Services

Custom recommendations, AI concierge, real-time alerts

Customized Response

Dynamic head movement, expression changes, screen reaction

Meet Our Tech Insight

Core Technology & Architecture

V Stella integrates on-device LLM, edge AI, and open cloud-based LLMs through a hybrid architecture that enables real-time reasoning, multimodal sensing, and adaptive user services

Hybrid AI Architecture

On-device 3B sLLM (SynaAI)
On premise Edge Server (70B LLM access)
Open Cloud API support

Multimodal Sensing

Vision (facial, gaze, gesture), voice, touch

Integrated AI Workflow

VLA(Visoin-Language Action) Based

Physical AI Interface

Generative Motion AI Emotion-Aware Reactions

Extensible AI Platform

Supports third-party models, and system integration

Unrivaled Innovation & Competitive Edge

V Stella uniquely delivers real-time AI interaction

by combining on-device LLM, hybrid AI architecture,

and multimodal interface capabilities

AirPath, On Device AI BSP

An on-device AI platform powered by Qualcomm Dragonwing™ QCS8550, Enabling VLA and RFM

execution with fast, secure AI performance without cloud required.

Hybrid AI Architectures

SynaAI is Integrit’s proprietary lightweight LLM platform with advanced noise preprocessing designed for on-device execution. supports hybrid deployment with on-premise open cloud integration

Multimodal Interface

Processes voice, gaze, gesture, touch inputs

Recognizes user context and intent seamlessly

Dedicated On-device AI Atack

A lightweight, device-optimized AI stack supporting LLM, VLA, and RFM, compatible with major backends and designed for efficient, on-device inference.

다중 AI가 통합된 멀티모달 AI

인티그리트만의 AI 프레임워크
혁신적인 AI 통합, 그 중심엔 AirPath®가 있습니다

Product Design & User Interface

혁신적인 디자인과 AI, 새로운 사용자 경험이 함께 합니다

  • 스텔라는 단순한 터치스크린 기반 디바이스가 아닙니다.
    우리는 일상에서 누군가와 소통을 위해 다양한 방법을 사용합니다. 눈빛을 교환하고 표정을 읽어내며 제스처를 이용하고 움직이며 대화를 통해 소통하게 됩니다. 스텔라 또한 오직 화면을 누르는 인터페이스를 넘어 우리가 경험하고 익숙한 소통의 방법을 적용할 수는 없을까 고민을 거듭했습니다 
      

  • 스텔라의 스크린은 단순한 ‘메뉴’가 아닌, ‘존재’를 표현합니다. 이곳에는 사용자의 관심사, 대화의 맥락, 그리고 서비스 목적에 따라 변화하는 전문적인 버추얼 AI 비서(Agent Persona) 가 등장 합니다. 이 에이전트는 단순히 정보를 제공하는 것을 넘어, 사용자의 질문을 이해하고, 감정을 읽고 교감하며, 상황에 맞는 서비스를 능동적으로 제안합니다. 

  •  
  • 스텔라가 제안하는 신개념의 UX는 ‘제어’가 아닌 ‘소통’의 방법을 더 확장하는 것입니다. 그 중심에는 인티그리트가 자체 설계한 Physical AI 와, AI 휴면 인터페이스가 실시간으로 반응하고 움직이는 혁신적인 인터페이스 철학이 담겨 있습니다.

    스텔라는 시각·표정·움직임·언어를 통합하여, 사용자와 마주하며 함께 생각하고 움직이는 새로운 인터랙션의 장(場)을 제시합니다

Virtual Human Interface

Expressive avatar with gaze tracking and facial reactions Emotion-aware interactions for human-like engagement

11" High-Resolution OLED Display

Immersive communication and real-time visual feedback Syncs with speech and user responses dynamically

360° Rotating Motorized Head

Actively aligns with user’s position and movement Ensures accessibility and presence across environments

Gesture & Touch Interaction Support

Enables intuitive control beyond voice

Specifications
& Architectures

AI SoC 통합 설계와 온 디바이스 AI 모델까지, 최적화된 AI 시스템

  • 스텔라는 AI SoC–펌웨어–런타임–AI 모델 전 계층을 통합한 End-to-End 온디바이스 AI 아키텍처로 개발되었습니다. 이는 단순한 모델 이식이 아니라, 하드웨어 구조와 운영체제, AI 프레임워크, 모델 최적화가 유기적으로 연결된 형태의 수직 통합형 설계입니다. 

  •  

    핵심에는 Qualcomm® QCS8550 SoC 기반으로 최적화된 AirPath® 온디바이스 AI 플랫폼이 있으며, 이 플랫폼은 Linux/Ubuntu 커널, 커스텀 펌웨어 모듈, CPU·GPU·HTP·AIC 가속 파이프라인을 통합하여 시각·음성·모션 데이터를 실시간으로 처리하는 결정론적(Deterministic) AI 추론 환경을 제공합니다.

  •  

    SynaAI® 소프트웨어 스택은 모델 개발에서 실행까지의 전 과정을 지원하는 End-to-End AI 워크플로우로, 모델 변환, 양자화, 펌웨어 드라이버 연계, ROS2 기반의 데이터 동기화를 통해
    시각 인식, 음성 인식, 행동 예측, 경량 LLM 등 다중 AI 모델이 실시간으로 협업하도록 구성되어 있습니다.

     

    이러한 구조를 통해 스텔라는 클라우드 의존 없이 로컬에서 인식·추론·반응이 가능하며, 필요 시 하이브리드 LLM 구조를 통해 엣지 및 클라우드와 지능을 연동합니다. 그 결과, 초저지연·고효율·상황인지형 AI 응답성을 갖춘 새로운 물리적 AI 시스템의 기준을 제시합니다.

Hardware Specification

Powered by Qualcomm QCS8550 SoC / Ubuntu / android
5G Sub-6, Wi-Fi 6E, and BLE connectivity
11" OLED display / 6-DOF motion head dual vision cameras / directional mic

SynaAI® Software Stack

3B sLM (lightweight LLM tuned on LLaMA2)
Integrated VLA (Vision-Language-Action) inference engine
WebRTC / WebSocket-enabled interface for API integration

Hybrid LLM Architecture

Tier 1: On-device 3B – greetings, FAQs, lightweight dialogs
Tier 2: O-Premise Edge 70B – concierge, contextual information
Tier 3: Open Cloud – image/audio multimodal and global inference
Prompt routing, prioritization, fallback mechanisms

LLM 에이전트 디바이스를 위한 특허 기반 핵심 기술

Built from the Core,
Designed for Intelligence

  • 인티그리트는 LLM(대규모 언어모델) 기반 AI 에이전트 디바이스와 무인 리테일 솔루션 시대를 선도하기 위해 강력한 특허 포트폴리오(Patent Portfolio) 를 구축했습니다.

    현재 한국 내 12건의 등록 특허를 보유하고 있으며, PCT(국제 특허 출원) 을 통해 글로벌 시장 확장을 진행 중입니다. 이 특허 포트폴리오는 하드웨어·펌웨어·AI·인터랙션 전 영역을 아우르는 온디바이스 AI 기술 통합 역량을 포함하고 있습니다

Patented Core Technologies for LLM Agent Devices

01. 대규모 언어모델(LLM)의 통합 제어 및 원격 실행 기술 

02. AI 비전 기반 생성형 인터랙티브 시스템

03. 시각 인식 기반 웨이크업 및 음성 인식 기술 

04. AI 커머스 및 지능형 서비스 제공 시스템

스텔라는 Qualcomm® QCS8550 SoC와 SynaAI® 소프트웨어 스택을 기반으로, 시각·음성·동작을 통합한 실시간 멀티모달 인터랙션을 구현합니다.

로컬의 경량 모델부터 온프레미스 엣지 추론, 글로벌 클라우드 추론으로 이어지는 3단계 하이브리드 LLM 아키텍처는 환경에 따라 최적화된 문맥 기반 지능형 응답(Context-Aware Response) 을 제공합니다.

하드웨어, 펌웨어, AI 모델의 깊은 통합을 통해 초저지연, 고성능, 확장형 개인화 AI 경험을 실현하며, 물리적 AI 디바이스가 사고하고 반응하는 방식을 새롭게 정의합니다.

이러한 특허 기술들은 인티그리트 제품의 차별화된 경쟁력의 핵심 기반(Core Foundation) 으로, 확장 가능하고, 프라이버시를 보호하며, 미래 지향적인 온디바이스 AI 솔루션을 실현하는 토대가 됩니다.

Patent Portfolio
No Patent Title (English) Patent No. Filing Date
1Visual Wake-up System Using Artificial Intelligence10-24564382022.10.14
2System and Method for Supporting AI-based Speech Recognition and Conversational Services10-25044452023.2.23
3Robot Integration Control Device and Driving Method for Hyper Robot Implementation10-26155012023.12.14
4System and Method for Providing User Services through Intelligent Vision Robot10-26313242024.1.25
5Monitor-Integrated Computing Device for Providing AI Commerce Services10-27000952024.8.23
6System for Remote Control and Execution of LLM-based External Dialogue AI Hardware Devices10-27082942024.9.13
7Monitor-Integrated Computing Device Providing AI Vision-based Interactive Responsive Services10-27082982024.9.13
8Robot Device Providing Conversational Services Based on AI Technology10-27121142024.9.25
9Monitor-Integrated Device Providing Generative Image Based on AI Vision Recognition10-27553942025.1.10
10Information Processing Device Interworking with AI Voice Programs with Voice Identification10-28003572025.4.21

Application Areas & Scalability

Stella offers scalable deployment across diverse verticals—from smart buildings and retail to public institutions and global event venues—with API-level integration enabling seamless B2B service expansion

Smart Buildings
& Corporate Lobbies

AI concierge & visitor navigation
Entry control & spatially adaptive signage
Integrated with IoT and building systems

Retail Store
& Shopping Malls

Product recommendations and promotions
POS & CRM integration
In-store interactive digital human assistant

Public Sector
& Tourism Hubs

Multilingual & location-customized content
Enhanced accessibility for elderly & disabled<Information service for multinational visitors
Event schedules, venue navigation, sponsor info
Information service for multinational visitors
Event schedules, venue navigation, sponsor info