← Back to Graph RAG Main HYBRID ARCHITECTURE v1.0

Separating Generation from
Decision-Level Reasoning

세만AI의 의료 위기 예측 시스템은 LLM의 '생성 능력'과 외부 Reasoner의 '판단 능력'을 분리합니다.
Logit-Level Decision Control을 통해 책임과 설명 가능성을 완벽하게 확보합니다.

ACADEMIC FOUNDATION
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs

ICLR 2026 등 학계에서 주목하는 Neuro-Symbolic 트렌드를 반영하여, LLM을 Frozen 상태로 두고 Reasoning 모듈을 결합하여 판단을 조정하는 아키텍처를 구현했습니다.

논문 보기 ➔
Step 1 Retrieval Graph / Vector DB Step 2 Generation LLM Candidate Step 3 Fact Check Guardrail (Consistency) Step 4 (CORE) Decision-Level Reasoning Policy & Clinical Rules SAFE
01. CONTEXT

Retrieval

장기요양+연계의료 지식그래프와 벡터 DB에서 환자 상태, 시설 정보, 위험 인자를 검색하여 LLM 입력용 컨텍스트를 구성합니다.

02. DRAFT

Generation

LLM은 주입된 컨텍스트를 바탕으로 후보 예측을 생성합니다. 단, 이는 언어적 인터페이스 역할일 뿐, 최종 결정권은 없습니다.

03. VERIFY

Fact Check

생성된 수치와 관계가 온톨로지와 일치하는지 검증(Consistency)하여, LLM의 고질적 문제인 할루시네이션을 차단합니다.

04. CONTROL

Decision-Level

임상/정책/리스크 규칙(Normative Rules)을 기반으로 최종 판단을 내립니다.

  • 낙상 점수 > 임계치: 경보 승인
  • 심정지 위험 + 금기 조건: 에스컬레이션

"책임은 계산되지 않습니다. 설계됩니다."

세만AI는 LLM의 확률에 의존하지 않습니다.
Neuro-Symbolic Hybrid 구조를 통해 사실성(Fact)을 검증하고,
의학적/정책적 규칙으로 결정 권한(Decision Authority)을 명확히 분리하여
가장 안전하고 설명 가능한 AI를 구현합니다.

NEXT LEVEL

How It Actually Works

시스템 아키텍처 상세 보기 (View Blueprint) ➔