정부가 22일 시행되는 ‘AI 기본법’(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법) 시행을 앞두고 인공지능 투명성 확보 가이드라인을 공개했다. AI 기본법은 생성형 AI·고영향 AI를 활용하는 제품·서비스를 제공하는 AI 사업자에게 인공지능 활용 사실을 사전에 고지(투명성 확보 의무)하도록 규정하고 있는데, 구체적 적용 기준이 모호하다는 우려가 제기되자 이행 기준을 가이드라인 형식으로 제시한 것이다.
우선 가이드라인은 투명성 확보 의무를 이행하는 주체를 ‘AI 사업자’로 한정한다고 밝혔다. 이용자에게 AI 제품·서비스를 직접 제공하는 사업자에게만 법을 적용한다는 것이다. 반면 AI 기술이나 서비스를 단순히 업무 창작의 도구로 활용하는 경우에는 해당 법 적용을 받지 않는다. 예를 들어 영상 생성 AI를 활용해 영화를 제작·배급하는 제작사는 AI를 업무에 활용한 이용자에 해당하기 때문에 법 적용 대상이 아니다.
AI 생성물이 해당 AI 서비스 내에서만 제공될 경우에는 UI(사용자 환경)나 로고 등을 통해 표시하면 된다. 대화형 서비스는 이용 전 안내나 화면 내 로고를 표출하면 된다. 게임·메타버스는 로그인할 때 안내를 하거나 캐릭터에 AI라는 것을 표시하면 된다.
반면 AI 생성 결과물을 외부로 반출할 경우에는 확실하게 워터마크(AI 생성 결과물이라는 것을 표시)를 넣어야 한다. AI로 생성된 텍스트·이미지·영상 등을 다운로드하거나 공유할 때 사람이 인식할 수 있는 방법으로 표시해야 한다. 또는 문구·음성으로 안내한 뒤 기계가 판독할 수 있는 방법으로 워터마크를 넣어야 한다. 딥페이크의 경우에는 반드시 사람이 명확하게 인식할 수 있는 방법으로 표시해야 한다.