Close

Microsoft와 OpenAI가 AI 학습 데이터에서 누드 이미지를 제거하기로 했습니다. 한국 기업도 이를 따를까요?

Microsoft와 OpenAI가 AI 학습 데이터에서 누드 이미지를 제거하기로 했습니다. 한국 기업도 이를 따를까요?
  • Published9월 19, 2024

(게티 이미지 뱅크)

마이크로소프트(Microsoft), 오픈AI(OpenAI) 등 미국 AI 기업들은 성적 착취를 목적으로 한 가짜 영상의 확산을 막기 위해 AI 학습 데이터세트에서 누드 이미지를 삭제하기로 합의했다. 국내에서 가짜 동영상을 비롯한 성범죄가 많이 보도되면서 인공지능(AI)을 활용한 국내 기업들도 유사한 조치를 취하라는 압력이 커지고 있다.

9월 12일 백악관이 중개한 서약에서 마이크로소프트와 다른 기업들은 “적절한 경우와 훈련 목적에 따라” AI 학습을 위한 훈련 데이터 세트에서 누드 이미지를 자발적으로 제거하겠다고 밝혔습니다. [AI] 모델.”

이 서약의 다른 참가자로는 Adobe, Anthropic 및 Cohere가 있습니다.

같은 날 발표된 또 다른 서약에서 마이크로소프트는 메타(Meta), 틱톡(TikTok), 범블(Bumble), 디스코드(Discord) 등 기업과 함께 이미지 기반 성폭력 예방을 위한 자발적 원칙을 발표했다.

이번 발표는 이미지를 통한 아동 성적 학대와 동의 없는 가짜 성적 이미지 제작에 반대하는 미국 정부가 주도하는 캠페인의 일환으로 나왔습니다.

백악관 과학기술정책실은 성명을 통해 “이러한 이미지는 여성, 아동, 레즈비언, 게이, 양성애자, 트랜스젠더를 대상으로 불균형적으로 급증했으며 가장 빠르게 증가하는 유해한 용도 중 하나로 떠올랐다”고 밝혔다. 현재까지 인공지능의

국내 IT 관련 캠페인 단체 진보네트워크센터는 이날 성명을 통해 AI 기술을 활용하는 국내 기업들이 딥페이크 범죄를 소탕하기 위해 간접적으로 접근하고 있다고 비난했다.

프로그레시브 네트워크는 “국내 주요 기술 기업인 ‘네이버’ 스노우의 카메라 애플리케이션 ‘소다’가 인공지능 기술을 사용해 성적으로 혐오스러운 영상을 생성하고 있다는 보도를 지적하며 문제가 “해외 주요 기술 기업에만 국한된 것이 아니다”라고 강조했다. 무시하면서 사진… 여성 유저들의 욕구에 딱 맞습니다.

이어 “여성 이용자들이 부적절한 성적 이미지 생성에 대해 불만을 토로했다는 사실을 알고도 스노우와 일부 임원들은 ‘AI가 생성하는 것을 100% 통제할 수 없다’고 주장하며 책임을 회피하고 있다”고 덧붙였다.

그녀는 “나비르를 비롯한 AI 기업들이 주창하는 ‘AI 윤리’가 공허한 수사 이상이 되도록 기술적, 규제적 조치가 필요하다”고 강조했다.

READ  이 10 대의 스마트 폰은 최신 Android 12 업데이트를 받게됩니다.

“현재 국회에서 논의 중인 인공지능 관련 법안은 AI 기업이 제품과 서비스로 인해 발생할 수 있는 성착취 위험을 방지하는 데 모든 주의를 기울이는 방식으로 책임을 정의할 것을 강력히 촉구합니다.”

임재우 논설위원 기자

질문이나 의견은 다음 주소로 보내주세요. [[email protected]]

Leave a Reply

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다