마이크로소프트는 인터넷에서 딥페이크 확산을 막기 위한 솔루션을 제안합니다
마이크로소프트가 온라인 콘텐츠 진위 검증을 위한 새로운 표준 세트를 출시합니다
마이크로소프트는 네트워크에 등장하는 자료의 현실성을 평가하기 위한 "기술적 표준"을 만들었다고 발표했습니다. 목표는 AI 개발자와 소셜 플랫폼이 이미지나 비디오가 디지털 도구(예: 딥페이크)로 변조되었는지, 그리고 그 문서화 방법이 얼마나 신뢰할 수 있는지를 판단하도록 돕는 것입니다.
검증 시스템 작동 방식
* 렘브란트 그림 예시
- 상세한 출처 로그가 생성됩니다: 저장 위치, 이전 소유자 등.
- 그림을 스캔하고 붓놀림에서 수학적 서명을 생성합니다 – "디지털 지문".
- 박물관에 전시될 때 방문자는 이 데이터를 열어 원본 여부를 확인할 수 있습니다.
* 이미 적용 중인 방법
마이크로소프트는 메타데이터 삭제, 미세 조정, 목표 지향적 조작 등 기존 기술의 60가지 조합을 연구했습니다. 각 모델에 대해 다양한 시나리오에서의 동작이 시뮬레이션되었습니다.
연구 결과:
- 신뢰할 수 있는 조합은 대중에게 공개될 수 있습니다.
- 불신성 조합은 상황을 복잡하게 만들어 혼란을 더할 뿐입니다.
왜 중요한가
* 법률은 AI의 투명성을 요구합니다(예: 캘리포니아의 "AI 투명성법").
* 마이크로소프트는 아직 Copilot, Azure, OpenAI 및 LinkedIn에서 이 표준을 적용할지 발표하지 않았습니다.
표준은 콘텐츠의 진실성을 정의하지 않으며, 단지 자료가 조작되었는지와 출처를 보여줍니다. 업계가 이를 채택하면 오도하는 콘텐츠 제작이 훨씬 어려워질 것입니다.
산업 현황
회사 | 행동 | 상태
마이크로소프트 | C2PA (2021) – 출처 추적 | 개발 중
구글 | AI 생성 콘텐츠용 워터마크 (2023부터) | 적극 도입
그러나 마이크로소프트의 완전한 도구 세트는 시장 참여자들이 비즈니스 모델에 위협을 느낀다면 "프로젝트" 수준에 머무를 수 있습니다.
기존 솔루션 효율성
* 연구에 따르면 인스타그램, 링크드인, 핀터레스트, 틱톡 및 유튜브 게시물 중 30%만이 AI 생성으로 정확히 표시됩니다.
* 검증 도구의 빠른 배포는 위험합니다: 장애가 사용자 신뢰를 훼손할 수 있습니다.
종합적 검증 메커니즘이 선호됩니다. 예를 들어, 신뢰할 수 있는 이미지에 소량 AI 편집이 가해졌다면 플랫폼은 이를 완전히 생성된 것으로 잘못 분류할 수 있습니다. 통합 접근 방식은 거짓 양성 결과의 가능성을 줄입니다.
결론
마이크로소프트는 디지털 조작을 탐지하기 위한 구조화된 표준 세트를 제안합니다. 이 도구들은 온라인 자료에 대한 투명성과 신뢰를 높이려 하지만, 업계 채택과 통합 검증의 신뢰성에 달려 있습니다
댓글 (0)
의견을 남겨 주세요. 예의를 지키고 주제에서 벗어나지 말아 주세요.
댓글을 남기려면 로그인