선거에 영향을 미치는 데 사용되는 OpenAI의 AI 모델
최근 보고서에서 OpenAI는 자사의 AI 모델이 다음과 같은 용도로 악용되고 있다고 밝혔습니다.긴 형식의 기사나 소셜 미디어 댓글과 같은 가짜 콘텐츠를 만들 수 있습니다, 선거에 영향을 미치려는 의도를 가지고 있습니다.
이 회사는 다음과 같은 20개 이상의 작업을 해체했다고 보고했습니다.이러한 악의적인 목적을 위해 자사의 기술을 활용했습니다.
제목은 AI의 기만적인 사용 방지에 대한 업데이트 이 문서는 정치적 콘텐츠에 참여할 때 주의해야 할 긴급한 필요성을 강조합니다.
이는 우려스러운 추세를 강조합니다: OpenAI의 모델이 선거 혼란과 정치적 허위 정보 확산의 핵심 도구가 되고 있다는 점입니다.
종종 국가가 후원하는 악의적인 공격자들이 가짜 온라인 페르소나를 위한 콘텐츠 생성, 멀웨어 리버스 엔지니어링 등 다양한 불법 활동에 이러한 AI 모델을 활용하는 경우가 많습니다.
OpenAI는 사이버 범죄자들이 악성코드 제작 및 디버깅부터 웹사이트와 소셜 미디어 플랫폼을 위한 사기성 콘텐츠 제작에 이르기까지 악의적인 운영을 강화하기 위해 ChatGPT를 비롯한 AI 도구를 점점 더 많이 활용하고 있다고 지적했습니다.
AI 선거와 정치를 형성하는 데 있어 OpenAI의 역할이 커지고 있습니다.
지난 8월 말, OpenAI는 소셜 미디어 콘텐츠를 통해 미국 선거, 베네수엘라 정치, 현재 진행 중인 가자지구-이스라엘 분쟁에 영향을 미치려는 이란의 캠페인에 개입했습니다.
7월 초에는 플랫폼에서 르완다의 선거에 대한 댓글을 생성하는 르완다와 관련된 여러 계정을 금지하기도 했습니다.X(이전의 트위터).
또한 OpenAI는 이스라엘의 한 회사가 인도에서 여론 조사 결과를 조작하려는 시도를 발견했습니다.
이러한 노력에도 불구하고 OpenAI는 이러한 캠페인 중 유의미한 바이럴 참여를 달성하거나 지속 가능한 청중을 끌어모은 캠페인은 없었다고 지적하며, AI 기반 허위 정보를 통해 여론을 움직이는 것은 여전히 어려운 일임을 시사했습니다.
전통적으로 정치 캠페인은 반대 측의 잘못된 정보에 의존해 왔지만, AI의 등장으로 민주적 절차의 무결성에 새로운 위협이 되고 있습니다.
세계경제포럼(WEF)은 2024년이 다음과 같은 중요한 해가 될 것이라고 강조했습니다.선거 50개국에서 예정되어 있습니다.
대규모 언어 모델(LLM)이 널리 보급됨에 따라 그 어느 때보다 더 빠르고 설득력 있게 잘못된 정보를 유포할 수 있는 잠재력을 지니고 있습니다.
OpenAI, 위협 인텔리전스 공유 강조
AI가 주도하는 잘못된 정보로 인한 새로운 위협이 대두되고 있습니다,OpenAI 는 주요 이해관계자들과 협력하여 위협 인텔리전스를 공유하겠다고 발표했습니다.
이 단체는 이러한 협력 전략이 잘못된 정보 채널을 효과적으로 모니터링하고 특히 정치적 맥락에서 윤리적 AI 사용을 촉진할 것이라고 믿습니다.
OpenAI 보고서:
"이 작전으로 인해 의미 있는 오디언스 참여가 이루어지지 않았음에도 불구하고, 저희는 해외 영향력 작전에 저희 서비스를 사용하려는 모든 노력을 심각하게 받아들이고 있습니다."
또한, OpenAI는 기만적인 온라인 캠페인에 AI를 활용하는 국가 지원 사이버 공격자를 막기 위해 강력한 보안 대책을 수립해야 한다고 강조합니다.
세계경제포럼(WEF)은 이러한 우려를 반영하여 AI 규제 이행의 중요성을 강조했습니다.
이들은 "상호 운용 가능한 표준과 기본 규제 요건에 대한 국제적 합의는 혁신을 촉진하고 AI 안전을 강화하는 데 매우 중요합니다."라고 주장합니다.
효과적인 프레임워크를 개발하기 위해서는 OpenAI와 같은 기술 기업, 공공 부문 기관, 민간 이해관계자 간의 전략적 파트너십이 윤리적 AI 시스템을 성공적으로 구현하는 데 필수적입니다.
미국이 대선을 준비하면서선거 를 통해 AI 도구와 소셜 미디어가 허위 콘텐츠를 생성하고 퍼뜨리는 데 사용되는 것에 대한 불안감이 커지고 있습니다.
미국 국토안보부는 러시아, 이란, 중국과 같은 국가들이 11월 5일 선거에 영향을 미치려고 할 수 있는 위협이 증가하고 있다고 경고했습니다.오해의 소지가 있거나 분열을 조장하는 정보의 유포.
OpenAI는 결론을 내렸습니다:
"미래를 내다보면서 저희는 정보, 조사, 보안, 안전 및 정책 팀 전체가 협력하여 악의적인 행위자가 위험한 목적을 위해 고급 모델을 어떻게 사용할지 예측하고 적절한 시행 단계를 계획할 것입니다. 또한 내부 안전 및 보안 팀과 조사 결과를 공유하고, 주요 이해관계자에게 교훈을 전달하며, 업계 동료 및 광범위한 연구 커뮤니티와 협력하여 위험에 대비하고 총체적인 안전과 보안을 강화할 것입니다."