세만AI의 의료 위기 예측 시스템은 LLM의 '생성 능력'과 외부 Reasoner의 '판단 능력'을 분리합니다.
Logit-Level Decision Control을 통해 책임과 설명 가능성을 완벽하게 확보합니다.
ICLR 2026 등 학계에서 주목하는 Neuro-Symbolic 트렌드를 반영하여, LLM을 Frozen 상태로 두고 Reasoning 모듈을 결합하여 판단을 조정하는 아키텍처를 구현했습니다.
논문 보기 ➔장기요양+연계의료 지식그래프와 벡터 DB에서 환자 상태, 시설 정보, 위험 인자를 검색하여 LLM 입력용 컨텍스트를 구성합니다.
LLM은 주입된 컨텍스트를 바탕으로 후보 예측을 생성합니다. 단, 이는 언어적 인터페이스 역할일 뿐, 최종 결정권은 없습니다.
생성된 수치와 관계가 온톨로지와 일치하는지 검증(Consistency)하여, LLM의 고질적 문제인 할루시네이션을 차단합니다.
임상/정책/리스크 규칙(Normative Rules)을 기반으로 최종 판단을 내립니다.
세만AI는 LLM의 확률에 의존하지 않습니다.
Neuro-Symbolic Hybrid 구조를 통해 사실성(Fact)을 검증하고,
의학적/정책적 규칙으로 결정 권한(Decision Authority)을 명확히 분리하여
가장 안전하고 설명 가능한 AI를 구현합니다.