AI 챗봇, 갈수록 더 부정확…환각 문제 해결책 없나
||2024.10.08
||2024.10.08
[디지털투데이 김예슬 기자] 인공지능(AI) 챗봇의 최대 맹점은 잘못된 정보를 출력하는 환각 현상이다. 그런데 AI 챗봇은 시간이 지날수록 더 많은 실수를 저지른다고 4일(현지시간) 블록체인 매체 코인텔레그래프가 전했다.
네이처에 실린 '더 크고 더 많은 학습이 가능한 언어모델일수록 신뢰성이 떨어진다'는 제목의 연구에 따르면, 시간이 지날면서 새로운 모델이 출시됨에 따라 AI 챗봇은 더 많은 실수를 저지르는 것으로 드러났다.
이 연구의 저자 중 한 명인 렉신 저우(Lexin Zhou)는 AI 모델이 항상 믿을 수 있는 답변을 제공하도록 최적화돼 있기 때문에, 정확도와 관계없이 겉보기에 옳아 보이는 답변이 우선순위에 따라 최종 사용자에게 전달된다는 이론을 세웠다. 이러한 AI 환각 현상은 자체적으로 강화되며 시간이 지남에 따라 더욱 심해지는 경향이 있다. 또한 오래된 대규모언어모델을 사용해 새로운 대규모 언어 모델을 학습시킴으로써 결국 '모델 붕괴'로 이어지고 더욱 악화된다는 설명이다.
편집자이자 작가인 마티에 르와(Mathieu Roy)는 "AI는 여러 작업에 유용할 수 있지만, 사용자가 AI 모델에서 얻은 정보를 확인하는 것이 중요하다. 사실 확인은 AI 도구를 사용할 때 모든 사람의 프로세스에서 거치는 단계가 돼야 한다"고 전했다. AI 도구에 너무 의존하지 말고, AI가 생성한 검색 결과에 불일치가 있는지 항상 확인하라는 얘기다.
특히 르와는 고객 서비스와 관련된 챗봇의 경우 이는 더욱 복잡해진다며, "설상가상으로 챗봇에 직접 물어보는 것 외에는 정보를 확인할 방법이 없는 경우가 많다"고 덧붙였다.
지난 2월 구글의 AI 모델인 제미나이는 유색인종을 나치 장교로 묘사하거나, 역사적으로 유명한 인물의 부정확한 이미지를 생성하는 문제를 일으킨 바 있다. 당시 구글은 제미나이에서 사람 이미지 생성 기능을 잠시 중단했다.
이런 문제는 현재 AI와 LLM에서 상당히 흔하다. 환각 현상을 완화하기 위해 젠슨 황 엔비디아 최고경영자(CEO) 등 업계 임원들은 AI 모델이 연구를 수행하고 사용자에게 제공된 모든 답변에 대한 출처를 제공할 것을 제안했다.
지난 3월 젠슨 황은 "AI는 그저 대답만 하는 것이 아니라, 먼저 조사를 해서 어떤 답변이 가장 좋은지 판단해야 한다"고 전했다.
또한 지난달 하이퍼라이트AI(HyperWrite AI)의 매트 슈퍼(Matt Shumer) CEO는 회사의 새로운 70B 모델이 '리플렉션-튜닝'(Reflection-Tuning)이라는 방법을 사용한다고 밝혔다. 이는 AI 봇이 자신의 실수를 분석하고, 시간이 지남에 따라 응답을 조정해 학습하는 방법을 제공한다.
이러한 조치는 이미 인기 AI 및 대규모 언어 모델에 적용돼 있지만, 그럼에도 AI 환각 문제는 끊이지 않고 있다.