유럽연합(EU)은 AI 법에 대한 돌파구를 마련하여 관할권 내 인공 지능 사용을 규율하는 포괄적인 법적 프레임워크를 구축했습니다. 이 중추적인 합의는 다양한 부문에 걸친 AI의 배포를 규제하는 것을 목표로 하며, 다양한 범주의 AI 시스템에 대한 고유한 지침을 설정합니다.
계층화된 리스크 관리 시스템
EU의 AI 법은 기본권에 미칠 수 있는 잠재적 영향에 따라 AI 시스템을 분류하는 계층화된 위험 관리 시스템을 도입하고 있습니다. 이 법은 자동 추천 시스템 및 스팸 필터와 같은 기능을 포함하는 대부분의 AI 시스템을 '최소 위험'으로 분류합니다. 이러한 서비스를 제공하는 제공업체는 AI 행동 강령에 자발적으로 참여해야 합니다.
반면에 '고위험'으로 분류된 AI 시스템은 인프라, 교육 평가, 법 집행, 생체 인식과 같은 중요한 영역을 포괄합니다. 더 엄격한 규정은 상세한 문서화, 고품질 데이터 세트, 인적 감독, 위험 완화 메커니즘을 의무화합니다.
허용할 수 없는 위험 및 제한 사항
기본권에 위협을 가하는 모든 AI는 '허용할 수 없는 위험' 범주에 속하며 엄격한 금지 대상이 됩니다. 예측 치안, 직장 내 감정 인식 시스템, 자유 의지를 훼손하거나 정치적 성향, 인종, 성적 취향과 같은 요인에 따라 차별하는 모든 형태의 행동 조작이 그 예입니다.
엄격한 요구 사항 및 규정 준수
이 법은 챗봇과 대화할 때 투명성과 함께 딥페이크 및 AI 생성 콘텐츠에 대한 라벨링을 요구합니다. 또한, 상당한 컴퓨팅 리소스를 필요로 하는 기본 AI 모델은 12개월 후 강화된 규제에 직면하게 됩니다.
AI 개발자는 법안 통과 후 6개월 이내에 '허용할 수 없는 위험' 범주에 해당하는 기능을 신속히 제거해야 합니다. '고위험' AI에 대한 규정도 같은 기간 내에 준수해야 합니다.
비즈니스를 위한 시사점
이 법을 준수하지 않을 경우 상당한 벌금이 부과되기 때문에 AI 전문가와 기업들 사이에서 우려가 커지고 있습니다. 벌금은 전 세계 매출액의 1.5%~7%에 달해 상당한 재정적 위험을 초래할 수 있습니다. AI 법률 전문가인 배리 스캐넬은 생체인식 및 감정 인식 기술을 도입하려는 기업이 직면할 수 있는 잠재적인 전략적 변화와 운영상의 어려움을 강조합니다.
우려와 비판의 목소리
유럽의회 의원 스벤야 한(Svenja Hahn)은 이 법이 과잉 규제를 막는다고 칭찬하면서도 혁신과 시민권에 미치는 영향에 대해 우려를 표명했습니다. 컴퓨터 및 통신 산업 협회(CCIA)를 비롯한 거대 산업계와 의원들의 비판은 유럽 내 AI 기업의 혁신과 운영상의 제약에 대한 잠재적 제약에 대한 우려를 강조합니다.
결론 및 진행 중인 프로세스
이번 합의는 중요한 이정표이지만, 유럽 의회와 이사회의 공식 승인은 아직 보류 중입니다. 관보에 게재되면 이 법은 20일 후에 발효됩니다. 이러한 진전에도 불구하고, 다양한 글로벌 플랫폼을 통해 국제적으로 AI 규제에 참여하겠다는 EU의 지속적인 약속과 함께 법의 의미에 대한 논의가 계속되고 있습니다.
일부 전문가들은 규제와 혁신 사이에 보다 균형 잡힌 접근이 필요하다고 주장하는 반면, 업계에서는 이 법이 유럽에서 AI 개발과 인재 유지에 미칠 수 있는 잠재적 어려움을 강조합니다.