본문바로가기

PR

신시웨이의 최신 소식과 다양한 IT/보안 정보를 제공합니다.



2023년은 AI에 대한 관심이 그 어느때보다 뜨거웠습니다. 특히 챗GPT를 시작으로 각종 빅테크 기업에서 생성형(Generative)AI에 대한 연구·개발이 이루어지기도 했습니다.

AI는 우리 삶을 편리하게 해주지만, 예기치 못한 변수를 만들기도 합니다. 대표적으로 AI를 통한 허위정보 생성, 차별적 발언, 개인정보 유출, 딥페이크 피싱, 보안이슈 등의 문제가 있습니다. 이러한 문제들 때문에 세계각국에서는 AI로 인한 문제들을 예방하고, AI를 올바르게 사용하기 위한 규제를 시행하고 있습니다.



생성형 AI, 어떤 문제가 있을까?


생성형 AI의 가장 큰 문제는 환각 현상(할루시네이션, Hallucination)입니다. 환각 현상은 생성형 AI가 사실과 관련 없는 정보를 생성하는 것을 뜻하며, AI가 정보를 처리하는 과정에서 발생하는 대표적 오류입니다. 특히 챗GPT에 일어난 적이 없는 역사적 사건을 질문하면 챗GPT는 그 사건과 유사한 사건을 학습한 데이터를 기반으로 그럴듯하지만 잘못된 대답을 생성합니다. 이러한 할루시네이션은 잘못된 정보의 확산 및 윤리적·도덕적 문제로 이어질 수 있습니다.


이에 세계적인 국제학술지 네이처(Nature)에서는 지난 6월 생성형AI를 사용한 사진, 비디오, 일러스트, 그래프 이미지 등의 게재를 금지하였습니다. 네이처에서는 법적 저작권 문제 및 허위 정보 확산이 가속화될 수 있어 생성형 AI를 활용해 얻은 데이터나 이미지 사용을 금지하였습니다.


생성형AI를 통해 제작된 허위 뉴스를 통한 거짓 정보 확산의 위험도 있습니다. 실제로 미국에서는 특정 집단이 생성형 AI를 통해 바이든 대통령의 음성을 조작하였습니다. 원본 비디오 영상에서는 “우크라이나를 돕기 위해 탱크를 지원하자”는 발언이었으나, 음성 생성AI기술을 통해 트랜스젠더에 대해 비난하는 발언으로 변형되었습니다.




출처: Youtube, SBS뉴스


이렇듯 AI로 인해 파생되는 다양한 문제를 해결하기 위해 국제기구·각국의 정부·기업 차원에서 노력을 기울이고 있습니다.




유럽의 AI Act


2021년 유럽연합위원회(EC)는 AI를 위한 규제 및 법적 프레임워크를 처음으로 제안하였습니다. 이후 2023년 12월 8일 유럽연합 집행위원회(EC)와 유럽의회, EU 27개 회원국 대표는 AI법안에 합의하며 세계 최초로 인공지능 규제를 위한 법 ‘AI Act’를 통과시켰습니다. AI Act는 오는 2026년부터 시행 예정이며, AI를 겨냥한 첫 법률로, 챗GPT와 같은 생성형 AI를 포함한 얼굴 인식, 지문스캔 등 생체인증 툴에 대한 규제도 포함하고 있습니다.


AI Act는 AI의 위험성을 분류하고, 투명성을 강화하며, 규정을 준수하지 않는 기업에 벌금을 부과하는 내용 등이 담겨습니다. 이외에도 AI에 대한 포괄적인 규제를 위해 기업에서 준수해야할 내용으로 기술문서작성, EU저작권법 준수, 훈련에 사용된 콘텐츠에 대해 요약을 구체적으로 제공하는 것 등을 포함하고 있습니다. 규정을 위반하는 기업은 750만 유로(약 107억원)에서 최대 3500만유로(약497억원)또는 전 세계 매출 대비 7%에 이르는 벌금을 부과받습니다. 이를 구글이나 마이크로소프트와 같은 기업에 적용할 경우 벌금만 수십억달러(수조원)에 이르는 금액입니다.




국내의 인공지능관련 규제


개인정보보호위원회는 2023년 ‘인공지능시대 안전한 개인정보 활용 정책방향’을 발표하였습니다. 해당 정책은 AI를 통한 프라이버시 침해 위험은 최소화하면서, AI의 발전에 필요한 데이터는 안전하게 활용하는 것에 중점을 둔 정책입니다. 이외에도 인공지능 데이터에 관한 개인정보 강화 및 고위험군 인공지능에 대한 규제 필요성에 따라 아래와 같은 법안들이 발의되기도 했습니다.




이외에도 미국에서는 AI가 미칠 사회·경제적 타격을 줄이기 위해 연방정부 차원의 조치를 도입한다고 발표하였습니다. AI로 인해 대체될 인간의 일자리에 대해 조사하고, AI가 주도하는 채용 시스템이 각종 차별을 만들지 못하도록 방지하는 지침을 작성할 것으로 보입니다. 또한 개인정보 보호와 관련하여 연방정부가 AI를 활용해 시민들의 정보를 수집할 때 AI기술이 어떻게 사용되는지 공개하도록 하는 내용이 담길 예정이라고 합니다.

구글, 메타, MS 등 AI기업7곳에서는 AI로 생성·변조된 음성·영상 콘텐츠를 사용자가 구별할 수 있도록 도와주는 ‘디지털 워터마킹’시스템을 개발할 것임을 밝혔습니다. 디지털 워터마킹이란 사진 등의 데이터에 저작권 등의 정보를 삽입하여 관리하는 기술을 뜻합니다. 특히 AI를 활용한 거짓 사진이나 영상이 다가오는 미국 대선에 영향을 미칠 수 있어 구글에서는 미국 대선 콘텐츠에 AI기술이 쓰였을 경우 이를 밝히도록 요구할 예정입니다.