ChatGPT는 OpenAI가 펜타곤과 협력하고 있기 때문에 “거절”을 받았다.
미국 국방부(MoD)와 OpenAI의 파트너십에 대한 잠재적 결과를 우려한 미국 사회 일부는 "ChatGPT 취소" 운동을 만들었습니다. 이 움직임은 AI 모델 사용을 특정 작업에서 금지한 후 펜타곤이 블랙리스트에 올린 Anthropic을 지원하는 것을 목표로 합니다.
Anthropic이 리스트에 오른 이유
MoD와의 갈등에는 개발자가 넘어가고 싶어하지 않은 두 가지 "적색선"이 있었습니다:
1. 모델에게 무기 사용 결정을 자율적으로 내릴 권한을 주면 안 된다.
2. 모델은 미국 시민을 감시하는 데 사용될 수 없다.
Anthropic이 거절했을 때 MoD와의 계약은 해지되었고 회사는 블랙리스트에 등재되어 모든 방위계약업체가 그들과 협력할 수 없게 되었습니다.
OpenAI로의 전환
Anthropic이 국방 프로그램에서 제외된 후, MoD는 OpenAI를 포함시켰습니다. Sam Altman은 그들의 모델이 대규모 감시에 사용되지 않을 것이라고 선언했지만 정부 관계자들은 이를 부정했습니다: AI는 "법적 시나리오" 범위 내에서만 사용될 것이며 2001년 Patriot Act는 일부 제한된 조항에도 불구하고 통신망의 메타데이터를 수집할 수 있다고 강조했습니다.
공중 및 다른 AI 기업들의 반응
이 사건은 온라인 커뮤니티에서 강한 부정적 반응을 일으켰습니다. ChatGPT 사용 중단을 선언한 사람들은 긍정적인 피드백을 받기 시작했습니다. 모든 대형 AI 제조업체가 "적색선"을 거부해야 하는 것은 아니라는 점이 중요합니다:
- Google은 과거 내부 규칙에 유사한 금지를 도입했지만 이미 해지했습니다.
- Microsoft는 인간이 발사할 경우에만 무기에 AI를 사용할 수 있도록 허용합니다.
- Amazon은 구체적인 세부 사항 없이 "책임 있는 사용"이라는 일반 원칙에 제한됩니다.
OpenAI의 입장과 법적 틀
Sam Altman은 자율 무기와 대규모 감시에서 "적색선"을 준수하겠다고 재차 약속했지만 구현 메커니즘을 명확히 하지 않았습니다. 그는 미국의 기존 법률이 비미국 시민에 대한 보안 목적으로 데이터를 수집할 수 있다고 언급했습니다.
광범위한 대중에게 OpenAI는 펜타곤에 대해 무엇이 합법적인지 유연하게 해석하도록 제시했으며, Anthropic은 기술 적용을 엄격히 통제했습니다. 그 결과 Claude AI는 Android 및 iOS 공식 애플리케이션 중 리더가 되었고 Windows 11에서도 출시되었습니다
댓글 (0)
의견을 남겨 주세요. 예의를 지키고 주제에서 벗어나지 말아 주세요.
댓글을 남기려면 로그인