본문바로가기

PR

신시웨이의 최신 소식과 다양한 IT/보안 정보를 제공합니다.

인공지능(AI)에 관한 관심이 어느때보다 뜨거운 요즘,  '인공지능의 시대가 시작됐다'는 말이 나오고 있습니다.

그중에서도 출시 2달만에 1억명이 가입한 인공지능 챗봇 챗GPT는 전세계적으로 인기를 얻으며 지난 2월 유료서비스 챗GPT를 시작하였습니다. 그러나 유료서비스 챗GPT 서비스 시작 한달여만에 유료가입자의 정보 유출사고가 발생하였습니다. 


정보가 필요했는데, 유출까지?

지난 3월 20일 챗GPT사용자의 이용 기록이 다른 사용자들에게 유출되는 사고가 발생하였습니다. 챗GPT를 쓰던 사용자 일부에게 다른 사용자의 대화 이력이 보이는 이상 현상이 발생하였고, 유료 버전 구독자들의 이름, 이메일 주소, 지불 주소, 신용카드 번호 마지막 4자리, 신용카드 유효 기간 등 개인정보 및 결제 관련 정보가 포함된 정보가 유출되었습니다. 이는 전체 유료 가입자의 1.2%에 해당하는 가입자들의 정보가 유출된 것으로 추정되었습니다. 이에 오픈AI는 자사 홈페이지 공지를 통해 유출 사고로 인해 영향을 받는 주체는 극소수이며, 추가적인 피해가 없을 것이라고 이용자들을 안심 시켰습니다.

국내 기업들도 챗GPT에 대한 단속에 나섰는데요. 삼성전자의 한 직원이 반도체 생산 관련 프로그램의 오류를 해결하기 위해 코드를 챗GPT에 입력하였고, 이 과정에서 삼성전자의 정보가 챗GPT 개발사로 유출되었을 수 있습니다.

오픈AI는 챗GPT에 입력된 내용을 학습 데이터로 활용하기 때문에 기밀 내용을 입력할 경우 추후 불특정 다수에게 해당 내용이 유출될 수 있습니다. 기업의 중요 정보일 경우 치명적인 사고이기에 삼성전자에서는 임직원에게 공지 및 주의를 당부하였습니다.

이외에도 SK하이닉스, 포스코,LG디스플레이 등 국내 주요 기업에서는 챗GPT를 통한 핵심 정보 유출 가능성에 대해 우려하며 이에 대한 사내 임직원 대상 교육 및 사용 제한을 실시하고 있습니다.

챗GPT를 통한 정보 유출이 발생하면서 기밀 정보 및 개인정보 유출에 대한 우려가 이어지며 안전성에 대한 논란이 이어지고 있는데요. 전세계 각 국가의 개인정보보호 기관에서는 오픈AI에 대한 조사를 시행하고 챗GPT를 규제하기 시작하였습니다. 


챗GPT에 대한 전세계의 규제 동향은?

이탈리아 내에서는 챗GPT의 사용이 잠정 중단되었는데요. 오픈 AI가 이탈리아 시민의 데이터를 AI모델 학습에 사용하는 것을 금지하였습니다. 이탈리아 데이터 보호 당국은 데이터 유출사건을 계기로 오픈 AI를 조사하기 시작하였으며, 챗GPT가 다음과 같은 이유로 유럽의 개인정보보호법 GDPR을 위반하고 있으며, Open AI를 상대로 GDPR 위반사항에 대한 개선 조치를 취할 것을 요구하였습니다.

· 챗GPT에 수집되는 데이터가 어떤 사용자 및 이해 당사자와 연관되었는지 확인할 수 있는 정보 부족
· 알고리즘 훈련 목적으로 수집하는 개인 데이터에 대한 법적 근거 불충분
· 챗GPT가 제공하는 정보가 항상 실제 데이터와 매치되지 않으며, 이에 따라 개인정보가 부정확하게 처리되는 것으로 판단
· 챗GPT에 이용자의 나이를 확인하는 필터가 없어 미성년자에게 부적절한 답변을 제공할 수 있음

이탈리아를 시작으로 EU국가들도 챗GPT에 관한 조사에 착수하기 시작했는데요, 유럽 의회에서는 인공지능법안에 챗 GPT의 위험 방지를 위한 법적 안전장치 도입을 협의중이며, 생성형 AI기술을 규제하는 법률의 초안을 공개할 예정입니다.

캐나다 정부에서도 동의없이 개인정보의 수집, 사용 및 공개 혐의로 챗GPT에 대한 조사를 진행하였고, 조 바이든 미국 대통령은 백악관 회의에서 AI의 위험성을 직접 언급하며 IT기업의 개인정보 수집을 제한하는 법안 통과를 재촉하였습니다. 또한 미 상무부 산하 통신정보관리청(NTIA)은 언론과의 인터뷰에서 챗GPT와 같은 AI 출시 전 유해정보 확산, 개인정보 유출 등의 문제를 막기 위해 정부의 사전 인증 또는 허가 여부 등 관련 규정 도입의 필요성을 검토하고 있다고 밝혔습니다.


 AI개발, 잠시 쉬어야할까?

생성형AI는 그림, 음악, 광고까지 만들며 눈부시게 발전하고 있지만 허점으로 인해 제동이 걸리고 있습니다.

출처: MBN NEWS Youtube

다음 영상에서는 AI가 짠 코딩으로 프로그램을 만들어 다른 컴퓨터에 설치하자, 곧바로 해커의 컴퓨터에 화면이 뜨는데요, 다른사람의 사생활을 몰래 볼 수 있도록 AI가 도움을 주고있습니다. 이처럼 생성형 AI의 도움을 받아 범죄에 악용될 수 있으며, 개발 지식이 없는 사람들도 코드를 만들 수 있기때문에 광범위하게 범죄에 악용될 수 있습니다.

AI는 피싱(Phishing)범죄에 악용될 수도 있습니다. 피싱은 이메일이나 메신저를 통해 중요한 정보를 빼내는 수법을 의미합니다.

피싱 범죄를 시도하는 이메일은 보통 어색한 문장이나 문법을 통해 구별할 수 있었으나, AI의 도움으로 이를 보완하여 정교하고 완벽한 메일을 통해 사용자를 속일 수 있습니다.


미국의 비영리단체 '퓨처오브라이프'는 '강력한 AI시스템은 효과가 긍정적이고 그 위험이 관리 가능하다는 확신이 있을 때만 개발되어야 한다'라며 챗GPT4보다 강력한 생성형 AI의 개발을 6개월동안 중단할 것을 촉구하는 서명운동을 벌였고 테슬라 최고경영자 일론머스크, 애플 공동창업자 스티브 워즈니악  등 기업가와 정치인 등 1200여명이 서명하였습니다. 


AI기술이 따라잡기 힘든 속도로 발전하고 있지만 이를 뒷받침할 법적 기준과 제도는 미흡한 실정입니다. 특히 챗GPT와 같은 생성 AI의 경우 엄청난 양의 데이터를 수집하기 때문에 개인정보 침해에 대한 우려는 커질수밖에 없습니다. 하루빨리 AI분야에 특화된 개인정보 보호 대책 및 규제가 마련되어 모두가 안심하고 AI기술을 사용할 수 있는 날이 왔으면 좋겠습니다.