"LLM은 사실과 허구를 구분하지 않는다. 엄밀하게 말하면 진실을 말하도록 설계된 것은 아니다"
LLM은 언어로 지식을 학습하고 이로써 지능을 갖춘다.
이 지능은 사실과 허구를 구분하지 않는다. 아니, 할 수 없다. 학습한 내용을 가중치 사실로 믿고 배워 나가는데 그 정보들이 진실인지 알 수 있나?
이 과정을 곰곰히 들여다 보면 인간 역시 이처럼 불안정하고 불완전한 지성이란 생각이 든다. 우리는 무얼 어디서 배우나? 직접 경험한 일도 뇌의 각색으로 달리 익히고 가중치에 작용한다. 들어서 읽어서 배워서 아는 지식이란 본질적으로 남이 생성한 정보이며 객관성과 절대성은 별개의 요소다. 현 인류는 무엇이 진실(혹은 사실)이라고 정확하게 말할 수 있나? 물리학은 그런 불변의 진리를 탐구한다. 하지만 새로운 차원의 발견과 고찰은 기존의 진리를 더이상 진리가 아니게 만들고 있다. 수학은 보다 더 저변의 진리를 추구한다. 하지만 테드 창은 '영으로 나누면'에서 그것도 알 수 없다는 질문을 던진다.
인간은 사실과 허구를 구별하지 않는다. 엄밀하게 말하면 진실을 말하도록 설계된 것은 아니다.
더 엄밀하게 말하면 진실이 무엇인지 알 수 있도록 진화하지 않았다.
https://www.aitimes.com/news/articleView.html?idxno=170593
"LLM이 사용자 정보 알고 있으면 설득 확률 급상승...인터넷 노출 정보만으로 충분" - AI타임스
인공지능(AI) 모델이 사용자의 개인정보를 알고 있으면, 인구통계학적 근거를 바탕으로 효과적인 설득 전략을 짠다는 사실이 밝혀졌다. 이는 대형언어모델(LLM)이 인터넷에 노출된 사람들의 기본
www.aitimes.com
'Life' 카테고리의 다른 글
갑자기 생각나는 것들 (0) | 2025.05.29 |
---|---|
모른다고 말할 용기 (0) | 2025.05.23 |
생명존중의 양극화 (0) | 2025.05.17 |
무의식이 나를 지배한다면 나는 대체 누구인가 (0) | 2025.05.14 |
삶의 공평함을 고민한다면 (0) | 2025.05.14 |