그래픽=김하경

지난해 말 생성형 인공지능(AI) 챗GPT 등장 이후 산업, 문화, 교육 업계 등 다양한 영역에서 AI 열풍이 불고 있는 가운데 국내에서 AI 사용에 대한 보안 가이드라인이 속속 등장하고 있다. 특히 29일에는 국가정보원이 활용 가이드라인을 내놓았다. 한국 정부 차원에서 AI와 관련된 가이드라인이 나온 건 이번이 처음이다. 미국, 유럽 등 외국에서 AI 보안과 윤리에 대한 규제 움직임이 일고 있는 상황에서 한국에서도 관련 논의가 첫발을 뗐다는 평가가 나온다.

국가정보원은 이날 ‘챗GPT 등 생성형 AI 활용 가이드라인’을 만들어 공개했다. 60쪽 분량 가이드라인에는 업무상 비밀이나 개인 정보 유출, 가짜 뉴스 같은 자료 생성 등 AI 기술을 악용한 사례와 보안 위협이 담겼다. 이 같은 AI 부작용을 막기 위해 국정원은 개인 정보나 비공개 정보 등 민감한 내용 입력 금지, 가짜 뉴스 유포 및 해킹 등 범죄에 악용 금지, 생성물 활용 시 법률 침해 여부 확인, 악의적으로 거짓 정보를 입력하고 학습을 유도하는 비윤리적 활용 금지와 같은 보안 수칙을 제시했다.

국정원 관계자는 “AI 기술이 발달하고 있지만 정부 차원의 보안 대책이 없어서 처음으로 가이드라인을 마련했다”며 “국가 공공기관과 지자체, 국내 420여 대학에 배포할 계획”이라고 밝혔다.

그래픽=김하경
그래픽=김하경

◇AI 부작용 막자... 국회 입법 잇따라

국회에선 AI 상용화에 따른 입법 논의가 잇따르고 있다. 지난 2월 법안 소위를 통과한 ‘인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률’이 대표적이다. 정부가 3년마다 AI 기본 계획을 수립하고 이를 관장하는 컨트롤 타워로 인공지능위원회를 두는 것이 골자다.

부작용을 막기 위한 입법도 활발하다. AI를 이용해 제작된 콘텐츠라는 사실을 의무적으로 표시하게 한 콘텐츠산업진흥법 개정안(이상헌 의원), 챗GPT 등 AI를 이용한 프로그램으로 여론조사를 조작해 선거운동에 이용하는 행위를 금지한 공직선거법 개정안(송석준 의원) 등이 있다. 이상헌 의원실 측은 “AI가 이미 일정 수준 이상 결과물을 만들어 내고 있는데 확인되지 않은 정보를 그럴듯하게 꾸며 답변하거나 데이터의 출처를 불분명하게 나타내는 등 여러 가지 문제도 속출하고 있다”며 “이를 방지하기 위해 AI 창작물임을 표시하자는 것”이라고 입법 이유를 밝혔다.

AI가 학습하는 데이터를 규제해야 한다는 목소리도 많다. 현재 챗GPT 같은 생성형 AI는 포털 등 온라인에 공개된 정보를 사실상 무작위로 학습하고 있다. 개인정보보호위원회는 AI 데이터 학습과 이에 따른 개인 정보 침해 방지 대책을 마련하고 있다. 개인정보위 관계자는 “기업들이 AI를 훈련시킬 때 어떤 정보까지 활용할 수 있는지 범위를 규정하는 안을 마련해 올 하반기에 내놓을 예정”이라고 밝혔다.

◇민간 기업은 자체 규제안 만들어

국내에서는 아직 사실상 아무런 규제가 없는 상황이다 보니 AI 활용 기업들도 자체적인 내부 지침 마련을 서두르고 있다. 챗봇 ‘이루다’ 개발사 스캐터랩은 AI 윤리 가이드라인을 수립했다. ‘모두를 위한 AI 포털’을 표방하는 AI 스타트업 뤼튼도 지난해 AI 작문 도구 윤리 점검표를 만들었다. 개인 정보 유출이나 프라이버시 침해, 저작권 위반 같은 위험을 막기 위해 사전에 문제가 없는지 점검하겠다는 차원이다. 뤼튼 관계자는 “제품과 서비스 기획, 개발, 배포 등 전 과정에서 이 점검표를 준거로 삼고 있다”고 말했다.

가이드라인 배포로 이제 첫발을 뗀 한국과 달리 미국과 유럽 등에서는 실제 규제 법안이 속속 제정되고 있다. 유럽에서는 지난 14일(현지 시각) 세계 최초의 AI 규제 법안이 가결됐다. 이 법안은 유럽 각국 정부가 AI를 활용해 시민들을 감시하지 못하게 하는 방안이 담겼다. 안면 인식 데이터베이스를 개발하기 위해 감시 영상과 인터넷 정보를 수집하는 것도 금지했다. 미국 의회도 관련 입법을 준비하고 있다. 척 슈머 민주당 상원 원내대표는 최근 미 의회가 준비 중인 AI 규제안의 핵심 원칙 등을 공개하며 “AI 는 민주주의에 기여하는 방향으로 활용돼야 한다”고 했다.