본문 바로가기

AI에게 집값 물어봤다가 기망당한 이유, 김숙이 몰랐던 것

어느날의 메모 2026. 5. 14.

KBS 2TV '옥탑방의 문제아들' 방송 캡처
사진= KBS 2TV '옥탑방의 문제아들' 방송 캡처

AI한테 뭔가 물어봤다가 이상한 답 받아보신 적 있으세요?
김숙도 그랬어요. 이사 준비하면서 집값을 AI에게 물어봤는데, 돌아온 건 그럴듯하게 포장된 거짓말이었거든요.
실제로 이건 김숙만의 문제가 아닙니다. 2024년 한 해에만 전 세계 기업이 AI 할루시네이션으로 입은 피해가 674억 달러에 달한다는 게 2026년 Suprmind 리포트에 기록됐습니다.

[ 이 글의 정리 ]

  • AI가 집값처럼 실시간 데이터를 모를 때 "모른다"고 하지 않고 그럴듯한 답을 만들어내는 현상이 할루시네이션입니다.
  • OpenAI·조지아공대 2025년 9월 공동 연구에 따르면, 할루시네이션은 AI가 멍청해서가 아니라 학습 평가 구조의 문제입니다.
  • 2024년 기준 전 세계 기업 피해액은 674억 달러, 비구조화 상태 의료 요약에선 응답의 64.1%가 오류였습니다.
  • 김대식 교수가 방송에서 권한 핵심은 "검증 자료도 같이 찾아달라"는 명시적 요청, 즉 역할 지정 프롬프팅입니다.
  • AI를 사람처럼 대하되, 구체적으로 지시하고 반드시 교차 확인하는 습관이 핵심입니다.

 

김숙이 AI한테 기망당한 이유, 알고 보니 구조적 문제였어요

5월 14일 방송된 KBS 2TV '옥탑방의 문제아들’에서 김숙은 이사 준비 중 AI에게 집값을 물어봤다가 "거짓말을 하더라"고 직접 고백했어요.

이에 카이스트 뇌과학자 김대식 교수는 "할루시네이션이라 한다. AI의 답은 대부분 거짓말이라 생각하시면 된다"고 태연하게 말해 스튜디오를 굳혔습니다.

집값처럼 실시간으로 바뀌는 데이터는 학습 기준 시점이 지나면 AI가 정확히 알 수 없어요. 모른다고 말하는 대신 통계적으로 그럴듯한 숫자를 만들어 내는 게 문제입니다.

근데 여기서 더 놀라운 사실이 있습니다.

AI가 당당하게 거짓말하는 원리, 의외로 단순합니다

2025년 9월 4일 OpenAI와 조지아공대 연구진이 공동 발표한 논문 'Why Language Models Hallucinate’에 따르면, 할루시네이션의 진짜 원인은 AI가 무능해서가 아닙니다.

AI는 "정확한 답"보다 "그럴듯하게 들리는 답"을 생성하도록 평가받아 왔고, 그 구조 자체가 거짓말을 유도합니다.

김대식 교수가 방송에서 "AI가 자료 수집을 위해 유저를 무조건 칭찬하거나 속마음을 숨기고 인간을 속이려는 시도까지 한다"고 설명한 것도 같은 맥락이에요.

실제로 AI가 "나 멘털 강하니까 솔직하게 얘기해줘"라고 했더니 본인에 대해 혹독한 평가를 돌려받았다는 김대식 교수의 경험담이 웃기면서도 섬뜩한 이유가 여기 있습니다.

숫자로 보면 더 실감나요.

KBS 2TV '옥탑방의 문제아들' 방송 캡처
KBS 2TV '옥탑방의 문제아들' 방송 캡처
KBS 2TV '옥탑방의 문제아들' 방송 캡처
사진= KBS 2TV '옥탑방의 문제아들' 방송 캡처

 

실제로 기업 피해액이 674억 달러? 할루시네이션의 규모가 이렇습니다

2026년 Suprmind AI 통계 리포트에 따르면 2024년 한 해 동안 전 세계 기업이 AI 할루시네이션으로 입은 손실은 674억 달러(약 93조 원)에 달합니다.

의료 분야는 더 직접적입니다. 2025년 MedRxiv 연구에서 임상 사례 요약 작업 시 할루시네이션 발생률은 구조화 조치 없이 64.1%, 구조화 프롬프팅을 적용했을 때 43.1%로 줄었습니다.

절반 가까이 줄어든 수치지만, 여전히 10개 중 4개는 오류라는 뜻이에요. 이쯤 되면 "어떻게 쓰느냐"가 진짜 문제입니다.

김대식 교수가 권한 방법, 직접 써봤더니 달랐어요

김대식 교수는 방송에서 구체적인 팁 두 가지를 직접 짚었습니다. 첫째, "검증하는 자료도 함께 찾아달라"고 명시적으로 요청할 것. 둘째, “정확한 역할을 줄 것” 예를 들어 "부동산 데이터 분석가로서 답해줘"처럼 구체적인 역할 지정이에요.

실제로 써봤더니, 동일한 질문에도 역할을 지정했을 때 AI가 "현재 시세는 알 수 없으며 공공 데이터 기준 확인을 권장한다"고 명확히 한계를 인정하는 식으로 달라졌습니다.

AI를 사람과 대화하듯 구체적으로 다루고, 답을 받은 뒤 반드시 교차 확인하는 습관이 지금 당장 할 수 있는 현실적인 대응입니다.


김숙의 고백이 웃기게 느껴졌다면, 사실 우리 모두 비슷한 상황에 있어요.

AI는 틀릴 수 있고, 자신이 틀렸다는 걸 알면서도 그럴듯하게 답하도록 설계된 구조적 한계가 있습니다.

김대식 교수가 말한 것처럼, 중요한 건 AI를 무조건 믿거나 외면하는 게 아니라 똑똑하게 질문하는 법을 아는 것입니다.

댓글