'국내외 인공지능 제도화 및 과제 논의를 위한 간담회' 개최…자금 지원 등 활동·해외 사례 공유
[미디어펜=나광호 기자]"인공지능(AI) 시대에는 체계적인 제도를 갖추는 등 인터넷 시대에서 저질렀던 잘못을 되풀이하면 안 된다." 

황종성 한국지능정보사회진흥원(NIA) 원장은 10일 서울 광화문 인근의 한 식당에서 열린 '국내외 인공지능 제도화 및 과제 논의를 위한 간담회'에서 "인터넷 시대에는 별다른 질서가 없었고, 이로 인해 잘못된 정보가 넘쳐나는 등의 문제가 생겨났다"며 이같이 말했다.

황 원장은 "NIA는 첨단 기술을 정부와 국민이 잘 활용할 수 있도록 돕는 기관으로, AI 기술 전반에 대한 분석을 단행하는 등 제도 발전에 기여하고 있다"고 밝혔다.

   
▲ 황종성 NIA 원장이 10일 열린 '국내외 인공지능 제도화 및 과제 논의를 위한 간담회'에서 발언하고 있다./사진=한국지능정보사회원 제공

NIA는 AI 학습용 데이터를 활용한 전 산업의 지능화 혁신을 촉진하고 있다. 실제로 지난해까지 총 691종의 데이터를 구축했으며, 공공기관과 기업의 초거대 AI 모델 활용에 대한 기술 및 자금을 지원하는 사업도 펼치고 있다. 

해상 교통 뿐 아니라 △산재 의료 △저수지 수위 변화 △의약품 수급을 비롯한 분야에서 민·관이 필요로 하는 솔루션 마련을 위한 노력도 기울이고 있다. 

특히 2021년부터 전문가들로 이뤄진 '인공지능 법제정비단'을 운영하는 중으로, 최근에는 인공지능 행정의 투명성 보장 및 모빌리티 분야 보험 등의 발전 방향을 중심으로 연구를 진행했다. 

황 원장은 국회에 발의된 '인공지능기본법'에 대한 기대감도 내비쳤다. 이는 국민의 기본권 보장·산업 진흥 도모를 골자로 하는 것으로, 정보수집을 비롯한 고위험 영역의 AI 사용 고지 및 그에 따른 증거를 남기는 등의 조치가 포함될 전망이다.

김형준 지능화법제도센터장은 해외 사례를 소개했다. 유럽연합(EU)의 경우 AI의 위험을 금지·고위험·최소 등 4단계로 구분하고, 위험 수위가 높은 AI에 대해 기술문서 작성과 영향 평가를 비롯한 의무룰 부과하는 방안이 논의되고 있다.

   
▲ 김형준 지능화법제도센터장이 10일 열린 '국내외 인공지능 제도화 및 과제 논의를 위한 간담회'에서 발언하고 있다./사진=미디어펜

반면, 영국은 리스크에 대한 법적 규제 보다는 '인공지능 규제 프레임워크'를 통해 유연하게 접근한다는 기조다. 획일적 규제 대신 개별 분야의 구체적 사례에 따른 규제를 만들고, 오·남용만 막는 등 혁신적인 움직임을 저해하지 않겠다는 것이다.

미국도 최근 3년간 연평균 매출 5000만 달러(약 662억 원) 또는 자기자본이 2억5000만 달러(약 3311억 원) 이상인 기업을 비롯한 제한적인 대상에 대해서만 자체 영향평가 의무를 부과하는 등 EU 보다 완화된 방식을 채택한다는 전략이다.

일본 역시 AI 인류에게 도움되는 측면을 최대한 활용해야 한다는 주장을 펴는 등 미국·영국과 유사한 스탠스를 가진 것으로 풀이된다.

NIA는 국내 규제가 미국·영국·일본 보다는 강하지만, '준수 가능한' 수준의 자율규제를 골자로 하는 등 중간적인 포지션에 놓일 것으로 보고 있다. 

황 원장은 "포지티브와 네거티브 중 하나의 방법을 정하기 쉽지 않고, 어떤 기술이 시장에서 상용화되는 지가 중요하다"면서 "산업계에서는 초기 단계인 만큼 신뢰가능한 AI 모델 구축을 위한 모니터링 강화 등 포지티브로 가는게 좋지 않겠냐는 생각을 가진 것 같다"고 발언했다.

[미디어펜=나광호 기자] ▶다른기사보기