최종편집 : 2026-01-21 16:55 (수)
AI기본법 22일부터 시행…생성형 AI 결과물 ‘워터마크’ 부착해야
상태바
AI기본법 22일부터 시행…생성형 AI 결과물 ‘워터마크’ 부착해야
  • 박두식 기자
  • 승인 2026.01.21 15:43
  • 댓글 0
이 기사를 공유합니다

생성형 AI 결과물 ‘표시’ 의무…이용자 아닌 AI 사업자 대상
고영향 AI 10개 분야로 한정·안전성은 초고성능 AI만 적용
최소 1년 이상 규제 유예…사실조사는 인명사고 등 예외시에만
▲ 서울 강남구 코엑스에서 열린 AI 서밋 서울 & 엑스포를 찾은 관람객들이 구글의 제미나이 기반 생산형 이미지 포토 부스를 체험하고 있다. /뉴시스
▲ 서울 강남구 코엑스에서 열린 AI 서밋 서울 & 엑스포를 찾은 관람객들이 구글의 제미나이 기반 생산형 이미지 포토 부스를 체험하고 있다. /뉴시스

22일부터 챗GPT, 제미나이 등 생성형 인공지능(AI) 서비스를 통해 만들어져 외부로 유통되는 이미지·영상·음성에는 ‘AI 생성물’임을 알리는 표시가 적용된다. 

또 에너지·먹는물·의료·교통 등 생명이나 안전, 기본권에 중대한 영향을 미치는 영역에서 활용되는 고영향 AI 운영 사업자는 해당 여부를 사전에 검토받고, 영향을 받는 자에 대한 보호 방안을 마련해야 한다. 아울러 학습에 사용된 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 초고성능 AI에 대해서는 안전성 확보 의무가 부과된다.

21일 과학기술정보통신부에 따르면 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’이 22일부터 시행된다. 유럽연합(EU)에 이어 두 번째로 마련된 AI 산업 관련 법안으로, 우리나라는 법 시행 시점을 기준으로 전면 적용에 들어간다. AI 기본법은 투명성 확보 의무를 통해, 고영향 AI 또는 생성형 AI를 활용한 제품·서비스를 제공하는 AI 사업자에게 해당 서비스가 인공지능에 기반해 운용된다는 사실을 사전에 이용자에게 고지하도록 규정하고 있다.

생성형 AI를 통해 만들어진 결과물이 외부로 유통·반출되는 경우, 이용자가 AI로 생성됐다는 사실을 인지할 수 있도록 표시 또는 안내해야 한다는 점도 명시했다.

특히 실제와 구분하기 어려운 딥페이크 생성물에 대해서는 사회적 부작용 우려가 큰 만큼, AI 생성 사실을 이용자가 명확하게 인식할 수 있는 방식으로 고지하거나 표시하도록 의무화했다.

이 과정에서는 이용자의 연령이나 신체적 조건 등을 고려하도록 해, 시각·청각적 인지 여건에 따른 표시 방식의 유연성도 함께 뒀다.

다만 애니메이션·웹툰 등 딥페이크에 해당하지 않는 일반 AI 결과물의 경우에는 가시적 표시뿐 아니라 디지털 워터마크 등 비가시적 표시 방식도 허용한다. 이 경우 AI 사업자가 알림창이나 사용자인터페이스(UI) 등을 통해 생성형 AI 결과물임을 안내하도록 규정했다.

투명성 확보 의무의 적용 대상은 AI 제품이나 서비스를 제공하는 사업자로 한정되며, 생성형 AI를 활용해 결과물을 소비하거나 게시하는 일반 이용자는 규제 대상에 포함되지 않는다.

AI 기본법은 위험 관리 장치로 고영향 AI 제도를 도입했다.

고영향 AI는 모든 AI가 아니라, 법에서 정한 10개 영역에서 활용되는 경우로 한정된다. 해당 영역은 에너지, 먹는물, 의료·보건의료, 원자력, 범죄 수사, 채용, 대출 심, 교통, 공공서비스, 교육 등으로, 생명·안전·기본권과 직결되는 분야다.

AI 사업자는 스스로 해당 AI가 고영향 AI에 해당하는지를 사전에 검토해야 한다. 판단이 어려운 경우 과기정통부에 확인 요청을 받으면 된다. 고영향 AI 여부는 단순히 활용 분야만으로 결정되지 않으며 법에서 정하는 영역에서 활용되는지 위험의 중대성 등을 모두 고려하는 것 뿐 아니라 최종 의사결정 과정에 사람이 개입하지 않는 경우에 대상이 된다. 최종 의사결정 과정에 사람이 개입하는 경우에는 통제 가능하다고 보고 고영향 AI 대상에서 제외된다.

고영향 AI로 판단될 경우, 사업자에게는 ▲위험 관리 방안의 수립·운영 ▲주요 기준에 대한 설명 방안 마련 ▲이용자 보호 방안 수립·운영 ▲사람의 관리·감독 체계 확보 ▲안전성·신뢰성 확보 조치 내용의 문서 작성·보관 등 안전성과 신뢰성 확보를 위한 책무가 부과된다.

AI 기본법은 또 하나의 축으로 안전성 확보 의무를 규정하고 있다. 이는 모든 AI가 아니라 초고성능 AI 시스템을 대상으로 한 제한적 규정이다. 이는 고도로 발전한 AI가 통제 불가능한 상황을 가정, 사회적으로 큰 피해 발생을 사전에 예방하는 것을 목적으로 한다.

학습에 사용된 누적 연산량이 10의 26승 플롭스 이상이고, 최첨단 기술이 적용되면서 그 위험도가 사람의 기본권에 광범위하고 중대한 영향을 미칠 우려가 있는 경우를 모두 충족해야 안전성 확보 의무 대상이 된다.

해당 기준은 미국 캘리포니아주가 적용 중인 기준과 동일하며, 유럽연합(EU)이 적용한 10의 25승 플롭스 기준보다 완화된 수준이다. 안전성 확보 의무 대상이 되는 AI에 대해서는 모니터링 체계 구축, 위험 관리 체계 마련 등 사전적 안전 조치를 이행하도록 했다.

AI 기본법은 안전·신뢰 규정을 두면서도 AI 산업 진흥을 법의 핵심 축으로 두고 있다. 법과 시행령에는 AI 연구개발(R&D), 학습용 데이터 구축·제공, AI 도입·활용 지원, 창업 지원, 전문 인력 확보, AI 데이터센터 구축 등 산업 육성을 위한 정부 지원 근거가 담겼다.

특히 학습용 데이터와 관련해 과기정통부 장관이 통합 제공 시스템을 구축·관리하도록 하고 기업의 AI 기술 실증과 성능 시험을 위해 공기업·출연연·국공립대학 시설을 개방할 수 있는 근거도 마련했다. 국제 협력과 해외 시장 진출을 지원하기 위한 제도적 기반과 기업·기관을 집적하는 인공지능 집적단지 지정 근거도 포함됐다.

AI 기본법은 22일부터 시행되지만, 과기정통부는 최소 1년 이상 규제 유예를 전제로 운영할 방침이다. 법 조문상으로는 위반 사실을 인지할 경우 사실조사와 시정명령, 최대 3000만원의 과태료 부과가 가능하도록 규정돼 있지만 유예 기간 동안에는 계도와 지원 중심으로 대응하겠다는 설명이다.

사실조사의 경우 규제 유예 기간 동안 인명 사고나 중대한 인권 침해, 국가적 피해로 이어질 수 있는 경우 등 극히 예외적인 상황에 한해서만 진행할 계획이다. 업계에서 우려해 온 민원 접수나 신고가 접수되더라도 곧바로 조사에 착수하지 않고 우선 지원 절차를 안내하는 방식으로 대응한다는 것이다.

이를 위해 과기정통부는 ‘AI 기본법 지원데스크’를 개설·운영한다. 기업이 법 적용 여부나 이행 방식에 대해 문의할 경우 설명 자료 제공과 맞춤형 컨설팅을 지원한다. 영업비밀 유출 우려를 고려해 상담 내용은 비밀로 관리되며 익명 컨설팅도 허용한다.

과기정통부는 오는 2월부터 산업계·시민사회·학계 등이 참여하는 ‘제도개선 연구반’을 운영해 제도 보완 사항을 논의하고 스타트업과 지역 기업을 대상으로 현장 설명회를 열어 규제 유예 기간 동안 법 이행을 지원할 방침이다.  아울러 규제 유예 기간은 우선 1년으로 설정하되, 해외 기술 동향과 해외 규제 체계 변화를 고려해 추가 연장도 검토할 수 있다는 여지도 남겼다.

김경만 과기정통부 인공지능정책실장은 “아직 가보지 않은 길을 가는 만큼 글로벌 논의의 최저 기준선에서 접근해 최소한의 규범을 마련하려는 것”이라며 “이 법은 규제를 하기 위한 것이 아니라, 앞으로 글로벌로 나아가기 위한 기준점에 빠르게 맞추자는 관점”이라고 설명했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사