ChatGPT를 만든 대표도 “‘AI 제어’에 대한 푸틴의 발언이 너무 소름 끼쳤다”고 말했다.
인공지능(AI) 챗봇 ‘챗GPT’에 대중과 시장이 환호하는 가운데 인공지능 기술이 제대로 된 규제를 하지 않으면 민주주의를 무너뜨릴 수 있다는 경고가 나온다.
인공지능 전문가이자 베스트셀러 작가인 게리 마커스(Gary Marcus)는 14일(현지시간) 더 애틀랜틱(The Atlantic)에 “우리는 왜 AI 위기를 허용하는가? “2024년 미국 선거는 우리가 이전에 본 모든 것이 될 것입니다.
다를 수 있다”고 경고했다.
“ChatGPT 및 Microsoft의 향상된 Bing 검색과 같은 새로운 인공 지능 시스템은 대중을 완전히 사로잡았습니다.
ChatGPT는 역사상 가장 빠르게 성장하는 온라인 애플리케이션이며 그럴만한 이유가 있습니다.
텍스트를 입력하고 웹 링크를 다시 가져옵니다.
선택한 주제에 대한 잘 구성된 대화식 응답은 부인할 수 없는 매력입니다.
”
그러나 그는 이러한 빅 데이터 기반 대화형 챗봇에 주목하고 있는 것은 일반 대중과 거대 기술 기업만이 아니라고 강조했습니다.
극우 소셜 네트워크 Gab의 CEO인 Andrew Torba도 최근 자신의 회사가 “기독교 세계관을 전파하고 정권의 검열에 맞서 싸우기 위해” AI 도구를 적극적으로 개발하고 있다고 밝혔습니다.
) “빨리 부자가 되고 싶은” 사람도 이 기술을 광고 매체로 사용할 수 있습니다.
이미 잘 알려져 있는 인공지능 제품을 서둘러 내놓아야 하는 위험한 순간”이라고 말했다.
그는 “기술 주류화와 데이터 확장은 여러 면에서 상황을 악화시켰다”고 말했다.
“보고된 유일한 예는 Elon Musk가 죽었다고 주장하며 작년 11월 Meta(구 Facebook)에서 출시한 Galactica였습니다.
” AI가 많은 데이터를 기반으로 확률적 답변을 제공하기 때문에 “2018 Tesla 사고 ”라고 말하며 테슬라와 관련하여 가장 많이 등장하는 CEO ‘머스크 이론’은 오류 환각, 이러한 개별 수준에서 사실을 결합하여 생성되는 오류는 알려져 있지만 이를 방지하기 위한 대책이 개발되는 속도는 새로운 모델이 개발되는 속도에 비해 느리다.
문제는 “환각”이 단순한 실수에서 멈추지 않을 수 있다는 것입니다.
데이터 저널리즘을 연구하는 뉴욕 대학교 Meredith Crossard 교수와 UCLA Safiya Noble 교수는 인공 지능이 어떻게 인종적 편견을 복제하고 강화하는지 조사했습니다.
또한 최근 Triston Greene 기자는 “이러한 ‘환각’을 통해 보다 구체적으로 연구 내용, 동물 실험, 화학 설명 등을 조작할 수 있습니다.
”
▲ ‘깨진 유리 섭취의 이점에 대한 연구’라는 제목의 기자 트윗은 연구 결과가 인공 지능에 의해 조작될 수 있음을 암시했습니다.
ⓒ트위터 스크린샷
마커스는 “환각” 현상이 “나쁜 녀석들”에 의해 무한히 악용될 수 있다고 주장합니다.
대화형 인공지능이 상용화되기 이전에도 원하는 결과를 얻기 위해 소셜 미디어를 통해 여론을 조작한 사례로는 영국의 2016년 브렉시트 국민투표, 2016년 미국 대선, 그리고 곧이어 도널드 트럼프 전 미국 대통령의 트위터 등이 있다.
시간이 지날수록 심해지는 경제 양극화와 그로 인해 심해지는 정치 양극화는 이미 세계적인 현상이 되었습니다.
ChatGPT와 같은 대화형 챗봇은 특정 경제적, 정치적 이익을 기반으로 조작된 정보를 생성하고 이를 대규모로 “더 빠르고” “더 많이” 전파할 수 있습니다.
ChatGPT를 개발한 OpenAI의 샘 알트만 CEO는 17일(현지시간) ABC 뉴스와의 인터뷰에서 “권위주의 정부에서 인공지능의 개발과 활용에 대해 매우 우려하고 있다”고 말했다.
앞서 블라디미르 푸틴 러시아 대통령이 인공지능 경쟁에서 이기는 자가 인류를 지배하게 될 것이라고 말한 것을 호스트가 지적하자 알트만은 “매우 무섭다”고 말했다.
그는 “인공 지능은 우리 사회를 재편할 것이며 인류가 개발한 최고의 기술이 될 수 있다”며 “컴퓨터 코드를 작성하는 데 점점 더 능숙해지고 있는 이 시스템은 사이버 공격에 사용될 수 있다”고 걱정스러운 페이지인 이펙트스(Effects)에 말했다.
▲ 인공지능이 ‘환각’ 현상을 통해 얼마든지 잘못된 정보를 생산하고 퍼뜨릴 수 있다는 사실은 인공지능에 대한 규제가 시급함을 보여준다.
ⓒ