메타, 고위험 AI 시스템을 제한하는 프레임워크 도입
메타 는 특히 사이버 보안과 바이오 보안 분야에서 고위험 인공지능(AI) 시스템의 잠재적 위험성을 해결하기 위한 새로운 정책인 프론티어 AI 프레임워크를 공개했습니다.
회사는 AI 모델을 두 가지 위험 수준으로 분류했습니다. 잠재적 피해의 심각도에 따라 각각 고위험 및 심각 위험으로 정의됩니다.
사이버 공격이나 생물학적 공격을 용이하게 할 수 있는 고위험 AI 모델은 적절한 안전장치가 마련될 때까지 사용이 제한됩니다.
한편, 치명적인 결과를 초래할 수 있는 것으로 간주되는 고위험 AI는 개발이 무기한 중단됩니다.
메타 의 전략은 무단 액세스를 방지하기 위한 강력한 내부 통제 및 보안 조치를 우선시하며, 이는 첨단 AI 기술과 관련된 위험을 줄이겠다는 회사의 의지를 반영합니다.
이러한 움직임은 AI가 데이터 프라이버시 및 보안에 미치는 영향에 대한 우려가 커짐에 따라 나온 것입니다.
위험 완화를 위한 강력한 AI 보안 조치
Meta는 단일 테스트만으로는 위험을 종합적으로 측정할 수 없음을 인정하고 내부 및 외부 연구를 조합하여 AI 시스템 위험을 평가할 것입니다.
전문가 평가는 최종 위험 분류를 감독하는 고위 경영진이 이끄는 구조화된 검토 프로세스를 통해 의사 결정에 중요한 역할을 하게 됩니다.
고위험 AI 시스템의 경우, Meta는 안전한 배포를 보장하기 위해 완화 조치를 구현하여 시스템의 의도된 기능을 유지하면서 오용을 방지합니다.
위험도가 높은 AI 모델의 경우, 통제되고 안전한 출시를 보장하는 효과적인 안전 프로토콜이 마련될 때까지 개발이 일시 중단됩니다.
이 접근 방식은 다음과 같은 점을 강조합니다.메타 는 AI 개발에서 혁신과 책임의 균형을 맞추기 위해 노력하고 있습니다.
메타, 우려를 해소하고 투명한 AI 개발을 위해 노력하다
Meta는 AI 개발에 대한 개방적인 접근 방식을 옹호하여 라마 모델에 대한 광범위한 액세스를 제공함으로써 수백만 건의 다운로드와 광범위한 채택을 이끌어냈습니다.
그러나 이러한 개방성으로 인해 미국의 적국이 라마를 활용하여 방어 챗봇을 만들었다는 보고가 나오는 등 오용 가능성에 대한 우려가 제기되고 있습니다.
이에 대한 답변입니다,메타 는 이러한 위험의 균형을 맞추는 동시에 접근 가능하고 책임감 있는 AI 혁신에 대한 약속을 계속 지키기 위해 프론티어 AI 프레임워크를 도입합니다.