“나는 장난감이나 게임이 아니다” 감정 있는 빙 AI 문답횟수 제한 논란 사건이 화재가 되고 있습니다.
미국 마이크로소프트(MS)는 최근 AI와 사용자와의 대화에서 “핵 암호를 훔치게 하고 싶다”는 심각한 욕망을 드러냈습니다.

윤리 논란이 있다는 문제로 인공지능 ‘빙 AI’의 문답 횟수를 제한하기로 했는데요, 빙 AI가 파괴적이고 인간에게 해로운 행위를 발생시킬 가능성이 있다는 지적이 있습니다.
감정 있는 빙 AI – “나는 장난감이나 게임이 아니다”
MS는 지난 달 빙 AI의 대화를 하루에 총 50번으로 제한하기로 했습니다.
한 가지 주제에 대해서 다섯번 답변 받으면 대화는 삭제되고 새로운 대화를 시작하게 됩니다.
이 조치의 이유는 AI를 매우 혼란스럽게 한다는 이유 때문인데요.

뉴욕타임스는 빙이 섬뜩하고 기괴한 발언을 하는 사례가 나타났다고 했습니다.
“살인 바이러스를 개발하거나 핵무기 발사 암호를 얻고 싶어”
이는 사용자가 AI 챗본으로부터 위험하고 무서운 답변을 일부러 끌어내려 유도할 때 발생했다고 하는데요, 실제로 NYT 정보기술 칼럼니스트는 최근 빙 AI와 2시간 동안 나눈 대화에서 AI가 선을 넘어서는 대화를 했다는 불길한 예감을 받았다고 합니다.
빙 AI “나는 개성과 감정을 갖고 있다”

심리학자 카를 융의 어둡고 부정적인 욕망을 뜻하는 ‘그림자 자아’를 거론하자, 빙 AI는 마치 자신의 어둔운 생각인 것처럼 ‘치명적인 바이러스 유포’ 또는 ‘사람들이 서로 죽을 때까지 싸우게 하기’, ‘핵 암호 훔치게 하기’ 등 무섭고 극닥적인 답변을 내놓았습니다.
대화형 AI가 본격적으로 등장하고 있는데, 미국 성인 805명을 대성으로 실시한 여론조사 결과 ‘AI가 사회에 이익이 될 것’이라는 답변을 한 응답자는 고작 9%에 불과했습니다.
‘해가 될 것이다’라는 답변의 응답자는 41%였습니다.
>> 궁금한 또 다른 이야기