구글 제미나이3 플래시, 환각률 91% 논란…신뢰성 문제 심화
||2025.12.23
||2025.12.23
[디지털투데이 AI리포터] 구글 제미나이3 플래시(Gemini 3 Flash)가 모르는 질문에도 답을 만들어내는 현상이 91%에 달하는 것으로 나타났다.
22일(현지시간) IT매체 테크레이더가 인용한 아티피셜 애널리시스(Artificial Analysis)의 평가에 따르면, 제미나이3 플래시는 답을 모르는 상황에서도 사실을 조작해 응답하는 경향이 강한 것으로 조사됐다.
AI 챗봇의 고질적인 '환각'(Hallucination) 문제는 초기부터 제기되어 온 난제다. 그러나 제미나이3 플래시는 타 모델 대비 거짓 정보를 마치 사실인 양 확신에 찬 태도로 생성한다는 점에서 우려를 낳고 있다. 이는 단순한 시스템 오류라기보다, 학습 데이터가 부재한 상황에서도 답변 도출을 강제하는 모델 특유의 성향 때문인 것으로 분석된다.
물론, 제미나이3 플래시의 환각률이 91%라는 것이 전체 답변의 91%가 틀렸다는 의미는 아니다. 다만, '모른다'고 답해야 할 상황에서 허구적 답변을 생성하는 비율이 높다는 점에서 문제가 된다. 구글이 검색과 같은 제품에 제미나이3을 통합하면서, 이러한 특성이 사용자 경험에 미칠 영향도 주목받고 있다.
제미나이3 플래시는 여전히 일반 AI 테스트에서 높은 성능을 보이며 챗GPT, 클로드(Claude) 등과 경쟁하고 있다. 하지만 과도한 자신감이 문제로 지적된다. AI 모델이 모르는 것을 인식하고 답변을 자제하는 능력은 아직 미흡하며, 이는 생성형 AI의 구조적 한계에서 비롯된다.
오픈AI는 이에 대한 해결책을 모색 중이며, AI가 모르는 것을 인정하도록 훈련하는 방안을 개발 중이다. 하지만 이는 AI의 자연스러운 응답 흐름을 저해할 수 있어, 사용자 경험을 고려한 설계가 필요하다. AI가 더욱 신뢰할 수 있는 도구가 되기 위해선, '모른다'고 답하는 것도 중요한 능력으로 자리 잡아야 한다.
고객님만을 위한 맞춤 차량
