의료 위기 예측에 '환각(Hallucination)'은 허용되지 않습니다.
세만AI는 LLM의 생성 능력에 3중 온톨로지 검증을 결합하여,
책임질 수 있는 결과만을 도출합니다.
환자 상태, 시설 정보, 위험 인자를 지식그래프(KG)와 벡터 DB에서 동시 검색하여, LLM에게 '사실'을 주입합니다.
주입된 맥락을 바탕으로 LLM이 후보 답변을 생성합니다. 모델은 Frozen(학습 중단) 상태로 유지하여 비용을 최소화합니다.
생성된 답변이 온톨로지 사실 관계와 일치하는지 검증합니다. 의료적 오류나 환각(Hallucination)을 여기서 차단합니다.
최종적으로 임상/정책/리스크 규칙을 대입하여, 실행 가능한 판단인지(승인/거부)를 결정합니다.
"LLM 생성과 추론(Reasoning) 모듈을 분리하여 책임과 설명 가능성을 강화하는 아키텍처"
Paper Reference: Plug-and-Play Reasoner for Frozen LLMs