일시 차단·개발 중단 요구…생성형 AI 부작용 우려
[앵커]
챗GPT로 대표되는 생성형 인공지능이 빠른 속도로 발전하자, 개인정보 유출 등 부작용도 드러나고 있습니다.
그러자 해외에서는 규제 논의에도 속도를 내고 있는데요.
국내 흐름은 어떨까요.
김민혜 기자입니다.
[기자]
지난달, 챗GPT를 만든 회사가 트위터에 알린 공지입니다.
유료계정을 쓰는 회원 중 1.2%의 개인정보가 다른 회원들에게 노출됐으며, 현재는 해결했다는 내용입니다.
세계 이용자가 1억 명을 넘을 정도로 챗GPT 같은 생성형 인공지능 AI는 기술업계의 화두지만, 이런 개인정보 유출은 물론, 어떤 위험이 있는지 예단하기조차 어렵다는 문제점을 지적하는 목소리도 커지고 있습니다.
이탈리아에선 개인정보 보호 우려 등을 이유로 챗GPT 접속을 잠정 차단했고 유럽 다른 나라에서도 규제 검토에 들어갔습니다.
미국의 한 비영리단체에선 AI 시스템 개발을 6개월간 중단하라고도 촉구했습니다.
삼성전자 반도체 사업부가 챗GPT를 통한 정보 유출을 막기 위해 보안 지침을 강화하는 등 최근 기업들도 활용법을 고심하는 분위기입니다.
반면 국내에선 챗GPT 충격에, 기술 발전차원에서 규제보다는 '우선 허용'에 초점을 둔 인공지능법이 국회 통과를 앞두고 있는데, 자칫 오남용과 정보유출 같은 부작용이나 위험성을 거르지 못해 되레 경쟁력이 떨어질 수 있다는 지적이 나옵니다.
단편적 경험만으로는 미래 예측에 한계가 있는 만큼, 보다 신중하게 접근해야 한다는 의견도 있습니다.
"우리보다 먼저 AI에 대해 고민했던 EU 같은 경우도 챗GPT 등장 이후에는 오히려 이 기술이 어떤 반향을 일으킬지 모르는 상황이기 때문에 더 논의를 해야된다는 식으로 지금 가고 있는 분위기거든요."
주무부처인 과학기술정보통신부는 해당 법의 부작용을 보완할 수 있는 방안에 대해 추가 논의를 진행 중이라고 설명했습니다.
연합뉴스TV 김민혜입니다. (makereal@yna.co.kr)
#챗GPT #생성형_인공지능 #부작용
연합뉴스TV 기사문의 및 제보 : 카톡/라인 jebo23
(끝)