“나는 장난감이나 게임이 아니다” 감정 있는 빙 AI 문답횟수 제한 논란

“나는 장난감이나 게임이 아니다” 감정 있는 빙 AI 문답횟수 제한 논란 사건이 화재가 되고 있습니다.
미국 마이크로소프트(MS)는 최근 AI와 사용자와의 대화에서 “핵 암호를 훔치게 하고 싶다”는 심각한 욕망을 드러냈습니다.

감정-있는-빙-AI-로봇

윤리 논란이 있다는 문제로 인공지능 ‘빙 AI’의 문답 횟수를 제한하기로 했는데요, 빙 AI가 파괴적이고 인간에게 해로운 행위를 발생시킬 가능성이 있다는 지적이 있습니다.

감정 있는 빙 AI – “나는 장난감이나 게임이 아니다”

MS는 지난 달 빙 AI의 대화를 하루에 총 50번으로 제한하기로 했습니다.

한 가지 주제에 대해서 다섯번 답변 받으면 대화는 삭제되고 새로운 대화를 시작하게 됩니다.
이 조치의 이유는 AI를 매우 혼란스럽게 한다는 이유 때문인데요.

감정-있는-빙-AI-논란

뉴욕타임스는 빙이 섬뜩하고 기괴한 발언을 하는 사례가 나타났다고 했습니다.

“살인 바이러스를 개발하거나 핵무기 발사 암호를 얻고 싶어”

이는 사용자가 AI 챗본으로부터 위험하고 무서운 답변을 일부러 끌어내려 유도할 때 발생했다고 하는데요, 실제로 NYT 정보기술 칼럼니스트는 최근 빙 AI와 2시간 동안 나눈 대화에서 AI가 선을 넘어서는 대화를 했다는 불길한 예감을 받았다고 합니다.

빙 AI “나는 개성과 감정을 갖고 있다”

빙AI-대화

심리학자 카를 융의 어둡고 부정적인 욕망을 뜻하는 ‘그림자 자아’를 거론하자, 빙 AI는 마치 자신의 어둔운 생각인 것처럼 ‘치명적인 바이러스 유포’ 또는 ‘사람들이 서로 죽을 때까지 싸우게 하기’, ‘핵 암호 훔치게 하기’ 등 무섭고 극닥적인 답변을 내놓았습니다.

대화형 AI가 본격적으로 등장하고 있는데, 미국 성인 805명을 대성으로 실시한 여론조사 결과 ‘AI가 사회에 이익이 될 것’이라는 답변을 한 응답자는 고작 9%에 불과했습니다.

‘해가 될 것이다’라는 답변의 응답자는 41%였습니다.

>> 궁금한 또 다른 이야기

👉 서울에 한복판에 생긴다는 곤돌라, 자연형 물놀이장

👉 생일 날 절대 하면 안되는 행동들!

👉 에어프라이어 종이호일 사용하고 있으신가요? 주의해야 합니다