• Share  

AI 학습에 쓰이는 ‘공개 데이터’ 처리방안은…정부 기준 나왔다

  • Share this:

오픈 인공지능(AI) ⓒ연합뉴스 자료사진

기업들이 챗GPT 등 생성형 인공지능(AI) 모델을 개발하는 과정에서 ‘공개 데이터’를 안전하게 사용할 수 있는 정부 차원의 기준이 나왔다. 현행법상 ‘사각지대’에 있었던 공개데이터 처리방안에 대한 공인된 지침이 나온 것이다. 개인정보보호위원회는 17일 ‘AI 개발·서비스를 위한 공개된 개인정보 처리 안내서’를 발간했다. 공개 데이터는 인터넷에서 누구나 합법적으로 접근할 수 있는 데이터를 의미한다.

현재 주요 AI 기업들은 위키백과나 블로그, 웹사이트 등에서 공개된 데이터를 웹 스크래핑 방식으로 수집해 AI 학습데이터로 활용하고 있다. 문제는 이러한 공개 데이터에는 주소, 고유식별번호, 신용카드번호 등 여러 개인정보가 포함될 수 있어 국민의 프라이버시가 침해될 우려가 크나 개인정보보호법에 명확한 기준이 없다는 점이다.

이에 개인정보위는 공개된 개인정보를 수집·활용하는 법적 기준을 명확히 하고, 기업이 AI 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지를 참고할 수 있는 안내서를 마련했다. 생성형 AI 모델을 개발할 때 발생할 수 있는 개인정보 침해 위험성을 낮추고 법적 불확실성을 해소해 기업의 혁신과 성장을 돕겠다는 취지다.

안내서 발간에 앞서 개인정보위는 지난해 8월 ‘AI 시대 안전한 개인정보 활용 정책 방향’을 발표한 데 이어 ‘AI 프라이버시 민·관 정책협의회’를 중심으로 안내서에 관한 논의를 하면서 학계·산업계·시민단체의 의견을 수렴했다. 특히 유럽연합(EU)과 미국 등 해외 주요국에서도 관련 분야에서 개인정보 보호 규율체계를 만들어 가고 있는 점을 고려해 국제적인 상호운용성을 갖춘 기준을 마련하는 데 중점을 뒀다.

안내서에는 개인정보보호법에서 명시된 ‘개인정보처리자의 정당한 이익’ 조항에 의해 공개된 개인정보를 AI 학습이나 서비스 개발에 활용할 수 있다는 점을 분명히 했다.

단, 기업 등이 ‘정당한 이익’ 조항에 걸맞게 공개 데이터를 쓰려면 ▲ 이를 통해 개발하려는 AI 목적·용도에 정당성이 있어야 하고 ▲ 개발 취지와 관련 없는 개인정보를 AI 학습에서 배제하는 등 정보 처리에 합리성이 부여돼야 하며 ▲ 정보주체 권리침해 방지를 위한 안전성 확보 조치 마련 등의 요건을 충족해야 한다.

기업이 정당한 이익을 근거로 공개된 개인정보를 처리하기 위해 고려할 수 있는 안전성 확보 조치와 정보주체 권리보장 방안도 구체적으로 안내하되 기술 발전 속도에 빠른 AI 산업계의 특성을 고려해 세부적인 안전조치는 유연하게 도입할 수 있도록 했다. 기업이 모든 안전조치를 의무적으로 시행해야 하는 것은 아니며 각 기업의 특성에 맞는 ‘안전조치의 최적 조합’을 스스로 선택해서 이행할 수 있다.

이밖에 개인정보보호책임자(CPO)를 중심으로 ‘AI 프라이버시 담당조직(가칭)’을 자율적으로 구성하고, 안내서에 따른 기준 충족 여부를 평가해 근거를 작성하도록 권고했다.

개인정보 침해 발생 우려 등 위험 요인은 주기적으로 모니터링하고, 개인정보 침해사고 발생 시 신속한 권리구제 방안도 마련하도록 했다.

안내서는 관련법 제정과 AI 기술 발전 추이와 해외 동향을 고려해 지속해서 업데이트될 예정이다. AI 학습데이터의 원천인 이용자 개인정보의 적법한 처리 근거와 기준은 의견 수렴을 거쳐 구체화해 나가기로 했다.

고학수 개인정보위 위원장은 “AI 기술 진보가 빠르게 이뤄지고 있지만, 관련 개발의 핵심 관건인 공개 데이터 학습이 개인정보보호법에 비춰 적법하고 안전한지 여부는 공백인 상황”이라며 “안내서를 통해 국민이 신뢰하는 AI·데이터 처리 관행을 기업 스스로 만들어 나가고 축적된 모범사례가 안내서에 지속해서 반영되길 기대한다”고 말했다.

(7)