본문바로가기

PR

신시웨이의 최신 소식과 다양한 IT/보안 정보를 제공합니다.



2023년은 AI에 대한 관심이 그 어느때보다 뜨거웠습니다. 특히 챗GPT를 시작으로 각종 빅테크 기업에서 생성형(Generative)AI에 대한 연구·개발이 이루어지기도 했습니다.

AI는 우리 삶을 편리하게 해주지만, 예기치 못한 변수를 만들기도 합니다. 대표적으로 AI를 통한 허위정보 생성, 차별적 발언, 개인정보 유출, 딥페이크 피싱, 보안이슈 등의 문제가 있습니다. 이러한 문제들 때문에 세계각국에서는 AI로 인한 문제들을 예방하고, AI를 올바르게 사용하기 위한 규제를 시행하고 있습니다.



생성형 AI, 어떤 문제가 있을까?


생성형 AI의 가장 큰 문제는 환각 현상(할루시네이션, Hallucination)입니다. 환각 현상은 생성형 AI가 사실과 관련 없는 정보를 생성하는 것을 뜻하며, AI가 정보를 처리하는 과정에서 발생하는 대표적 오류입니다. 특히 챗GPT에 일어난 적이 없는 역사적 사건을 질문하면 챗GPT는 그 사건과 유사한 사건을 학습한 데이터를 기반으로 그럴듯하지만 잘못된 대답을 생성합니다. 이러한 할루시네이션은 잘못된 정보의 확산 및 윤리적·도덕적 문제로 이어질 수 있습니다.


이에 세계적인 국제학술지 네이처(Nature)에서는 지난 6월 생성형AI를 사용한 사진, 비디오, 일러스트, 그래프 이미지 등의 게재를 금지하였습니다. 네이처에서는 법적 저작권 문제 및 허위 정보 확산이 가속화될 수 있어 생성형 AI를 활용해 얻은 데이터나 이미지 사용을 금지하였습니다.


생성형AI를 통해 제작된 허위 뉴스를 통한 거짓 정보 확산의 위험도 있습니다. 실제로 미국에서는 특정 집단이 생성형 AI를 통해 바이든 대통령의 음성을 조작하였습니다. 원본 비디오 영상에서는 “우크라이나를 돕기 위해 탱크를 지원하자”는 발언이었으나, 음성 생성AI기술을 통해 트랜스젠더에 대해 비난하는 발언으로 변형되었습니다.