"사회적 요인 고려해 AI 위험 분류 체계 마련해야"

SW정책연구소 보고서 "악의적 AI 사용 늘지만 대응은 여전히 기술적 차원"

  전세계적으로 도입 필요성이 높아진 인공지능(AI) 위험 분류 체계를 마련할 때 기술적 요인뿐 아니라 사회·제도적 요인을 종합적으로 고려해야 한다는 분석이 나왔다.

 1일 소프트웨어정책연구소의 'AI 위험 유형 및 사례 분석' 보고서에 따르면 악의적으로 AI를 사용하는 경우가 전 세계적으로 증가하고 있지만, AI 위험에 대한 대응 방식은 합성 미디어 탐지, 워터마킹 등 여전히 기술적 차원에 머물고 있다.

 이런 상황에서 보고서는 세계적으로 합의된 AI 위험 분류 체계를 마련해 앞으로 다양해질 AI 위험에 대응해야 한다고 주장했다.

 보고서는 "비(非)기술적인 요인에 의한 AI 위험은 단시간에 해결되기는 어려운 경우가 많다"며 "노동 시장 영향, AI 격차 심화에 따른 사회·경제적 문제 등은 잠재적인 영향에 대한 논의를 통해 신중한 대응이 필요하다"고 전했다.

 한편, 보고서는 세계적인 AI 전문가 요슈아 벤지오 캐나다 몬트리올대 교수를 주축으로 만들어진 AI 위험 요인 분류 체계가 AI에 따른 사회적 위험 등을 다각적으로 고려하고 있어 향후 AI 위험에 관한 논의에 참고해야 한다고 제안했다.

 벤지오 교수 연구팀의 분류 체계는 '악의적 사용 위험', '오작동 위험', '시스템적 위험', '교차 위험 요인' 등 4가지를 두고 각 세부 기준을 마련하고 있다.


의료.병원,한방

더보기

학회.학술.건강

더보기

메디칼산업

더보기