News

생성형AI의 사회경제적 위험과 윤리 및 거버넌스의 중요성

글로벌 No. 1 딜로이트 글로벌 이코노미스트의 최신 세계 경제 뉴스와 트렌드 분석을 전합니다.

안녕하세요.

딜로이트 인사이트는 글로벌 경제 및 산업 구도에 영향을 주는 주요 이슈에 대한 인사이트를 소개하고 최신 경제산업 데이터와 그 함의를 분석한 ‘딜로이트 주간 글로벌 경제 리뷰’를 매주 금요일에 발행합니다.

딜로이트 글로벌 수석 이코노미스트 아이라 칼리시(Ira Kalish) 박사를 비롯한 딜로이트 글로벌 이코노미스트 네트워크(DGEN)가 매주 배포하는 ‘딜로이트 주간 글로벌 경제 리뷰’를 통해 중요한 세계 경제 동향을 간편하게 파악하실 수 있습니다. 

‘딜로이트 주간 글로벌 경제 리뷰’는 국내 유력지 등 다양한 채널을 통해 외부 배포되고 있으며, 딜로이트의 풍부최한 경제·산업 인사이트를 전달하는 플랫폼의 기초 콘텐츠로 자리잡을 것입니다.

많은 관심 및 활용을 부탁드립니다.

2024년 11월 1주차 딜로이트 주간 글로벌 경제 리뷰는 미국 경제 현실과 인식 간 단절의 원인에 대해 다룹니다.

생성형AI의 사회경제적 위험과 윤리 및 거버넌스의 중요성


2022년 챗지피티(ChatGPT)가 공개되면서 생성형인공지능(GenAI) 기술이 본격 상용화된 이래 많은 기업들이 새로운 기술 혁신이 가져다줄 기회를 놓치지 않기 위해 노력 중이다. 이미 AI 기술을 활용한 업무 효율성 강화, 고객경험 혁신, 외부 평판 및 재무적 위험에 대한 대응 등 다양한 활용 사례가 등장하고 있다.[1]

딜로이트 글로벌의 최신 조사에 따르면 기업들은 IT, 사이버 보안, 마케팅, 영업, 고객 서비스, 제품 개발, R&D, 전략, 운영 프로세스 등 주요 영역에서 생성형AI를 적극 도입하고 있는 것으로 나타났다. 특히 IT 기업들은 이러한 부문의 비용 민감성을 고려해 IT 운영 및 관리 효율성을 높이는 데 생성형AI를 활용하는 것을 목표로 하고 있다.[2] 

그러나 생성형AI의 관리 방식은 여전히 개선이 필요하다. 아시아-태평양 지역 기업의 약 20%만이 인재와 리스크 관리에 잘 준비되어 있다고 응답했고, 기술 인프라와 전략 측면에서 준비가 되어 있다고 답한 비율도 약 40%에 불과했다.[3]

수많은 혁신적인 기술이 그랬던 것처럼, 좋은 기회 이면에는 잠재적, 현실적 유해성 문제가 있다. 즉 데이터 책무, 개인정보보호, 공정성, 설명가능성 및 투명성, 견고성, 지속가능성, 포용성, 책임성, 신뢰성 등 생성형AI 또한 다양한 윤리적 사안들이 쟁점으로 부상하고 있다.[4]

최근에 등장한 가장 대표적인 부정적 사례는 ‘딥페이크’(deepfake) 성 착취물 범죄다. 딥페이크는 생성형AI의 기반인 딥러닝과 가짜를 의미하는 페이크의 합성어다. 이미 AI로 생성한 콘텐츠가 우후죽순처럼 확산되는 와중에 이러한 기술 악용 사례에 대한 예방조치가 이루어지지 않은 상태에서 심각한 사회적 문제가 발생한 것이다.[5]

앞서 21대 국회에서 이러한 문제가 발생하지 않도록 ‘AI 생성물 표시 의무화법안’을 발의했지만, 당시 관련 업계와 옹호자들이 규제가 산업 성장을 저해할 수 있다고 목소리를 높이는 통에 입법에 실패했다. 그 이후 딥페이크 악용 성범죄가 터지자 관련 규제를 위한 법 도입 요구의 목소리가 커지고 있다.[6] 

이미 유럽연합(EU)은 이러한 AI 생성물 표시 의무화를 포함하는 ‘인공지능법’(AI Act)이 의회를 통과해 본격적인 규제를 앞두고 있어, 우리 국회도 해당 법안을 다시 발의할 것으로 보인다.[7] 앞서 우리 정부는 연내 AI기본법 제정을 추진하고 AI안전연구소를 설립하겠다는 의지를 밝히기도 했다.[8]

오늘날 성장하는 시장과 산업에서 AI는 필수 요소가 된 지 오래이고 많은 사람들이 이러한 기술의 발전에 따른 기회와 힘을 누리고 있지만, 갈수록 기업과 사회 전반에 미칠 광범위한 영향과 위험이 확인되면서 윤리와 혁신 사이에 균형 잡힌 접근법이 절실해지고 있다.[9]

우선 생성형AI 기술의 혁신과 윤리적 책임 간의 중요한 균형 관계를 염두에 두고, 현재 AI 기술 발전 경로에서 발생할 수 있는 잠재적인 사회경제적인 위험과 비용에 대해 살펴보자. 

AI 기술과 인간의 결정

근대 경제학의 창시자 중 한 명인 데이비드 리카도(David Ricardo)는 기계가 반드시 좋거나 나쁜 것은 아니라고 생각했다. 1817년 그의 선구적 저서, <정치경제학과 과세의 원리>에서 리카도는 면화 방적 산업을 혁신한 기계에 대해 긍정적인 견해를 취했다. 아담 스미스 등 앞선 고전경제학자들의 통념을 따라 그는 하원에서 "기계는 노동 수요를 줄이지 않았다"고 대답한 것으로 잘 알려져 있다.[10]

하지만 대규모 기술 개발은 방적에서 끝나지 않았다. 증기 동력 방직기가 공장에 배치되자 장인 직공은 공장에서 엄격한 규율 하에 훨씬 더 긴 시간 일하면서 가족을 부양하기 위해 고군분투해야 했고, 수많은 사람들이 일자리를 잃었다. 이로 인해 불안과 항의가 번지자 리카도는 생각을 바꿨다. 1821년 <원리> 3판에서 그는 ‘기계에 관하여’라는 새로운 장을 추가하고, "기계가 지금 노동이 하는 모든 일을 할 수 있다면 노동에 대한 수요는 없을 것"이라고 썼다.[11] 

1810년대와 1820년대에 일자리를 잃은 직조 장인들은 새로운 직조 공장에 일하러 가지 않았다. 기계 직기에 많은 노동자가 필요하지 않았기 때문이다. 앞서 방적 자동화로 더 많은 사람들이 직조공으로 일할 수 있는 기회가 생겼지만, 직조의 자동화는 다른 부문에서 보상 노동 수요를 창출하지 못했다. 영국 경제는 1830년대 철도가 개통되기 전까지는 다른 고임금의 새로운 일자리를 충분히 창출하지 못했다. 다른 선택지가 거의 없었기 때문에 수십만 명의 수작업 직조공이 임금이 절반 이상 떨어졌음에도 불구하고 기존 직업에 남았다.[12]

방적 기술과 방직 기술의 쌍끌이 혁신, 제임스 와트의 증기기관 기술과 융합으로 영국의 면직물 생산 경쟁력은 인도를 능가함은 물론 세계 최고의 수준으로 올라서게 되었다. 18세기 후반 영국의 면직물 생산량은 기하급수적으로 증가했으며, 1802년부터는 면직물 수출이 영국의 가장 중요한 수출품이었던 모직물 수출을 뛰어넘었다.[13]

이러한 산업혁명기에 기계가 일자리를 파괴하느냐 아니면 새로운 일자리를 창출하느냐는 우리가 기계를 어떻게 배치하는지, 그리고 누가 그러한 선택을 하느냐에 달려 있다는 리카도의 통찰력은 오늘날에도 적용된다. 

리카도는 기계에 대해 사고할 때 ‘혹독한 공장 환경에서 일하는 것’에 대해서는 깊이 생각하지 못했다. 1800년대 초 고용주가 통제하는 ‘사탄 공장’에서 작은 톱니바퀴가 되고자 하는 수공예 직조공들은 거의 없었다. 때문에 많은 장인 직조공들이 방적사를 사서 시장에 직조 제품을 판매하는 독립적인 사업가이자 기업가로 활동했다. 그들은 상대적으로 더 적은 임금을 받으며 근무 시간은 더 길고 규칙도 더 엄격한데 자율성은 적은 공장의 톱니바퀴가 될 생각이 없었다.[14]

오늘날 공장의 규율은 산업 혁명기의 영국처럼 될 이유가 없다. 데이터 수집 규제가 개인 정보를 보호하는 데 도움이 될 것이고, 더 강력한 근로 규칙은 AI 기반 감시가 최악의 상황으로 가는 것을 예방할 수 있다. 하지만 리카도의 교훈은 더욱 근본적인 과제는 AI에 대한 전반적인 서사를 바꾸는 것임을 보여준다. 가장 중요한 교훈은 기계가 반드시 좋거나 나쁘지 않으며, 기계가 일자리를 파괴하든 창출하든 우리가 기계를 어떻게 배치하느냐와 누가 그러한 선택을 하느냐에 달려 있다는 것이다.[15] 

AI의 사회·경제적 위험과 그 비용

올해 노벨 물리학상을 수상한 제프리 힌턴(Geoffrey Hinton) 토론토대 교수는 “AI가 초래할 수 있는 수많은 나쁜 결과에 대해 걱정해야만 한다”며, “인간보다 더 똑똑한 시스템이 초래할 결과에 대해 우려한다”고 말했다. 앞서 그는 지난해 5월에 10년 동안 몸 담았던 구글(Google)을 떠나면서 “AI가 인류에게 존재론적 위협이 되고 있다”고 말해 사람들을 놀라게 한 바 있다.[16] 

공동 수상자 존 홉필드(John J. Hopfield) 프린스턴대 교수도 “지구상의 방대한 정보 흐름과 결합된 AI에 대해 우려한다”는 입장을 밝혀 눈길을 끌었다. 홉필드 교수는 “신경망의 간단한 알고리즘이 거대한 정보 시스템을 통제할 수도 있다”면서 “그런 시스템의 작동 방식을 제대로 이해하지 못하고 있다는 점이 당황스럽다”고 강조했다.[17]

이러한 AI의 현실적 위험에 대한 경고가 ‘의인화된 AI가 유발할 재앙적 위험에 대한 인류의 안전 문제’로 비화하는 것은 바람직하지 않을 것이다. 모든 기술은 인류에게 도움이 되거나 위협이 되는 방식으로 이용될 수 있기 때문에, 결국 중요한 것은 누가 기술을 통제하고 또한 이러한 기술의 목적은 무엇이며 나아가 어떤 종류의 규제가 필요한가에 대한 대답이다.[18]

당장 AI가 인간을 쓸모 없게 만들지, 조만간 인공일반지능(AGI)이나 이를 뛰어넘는 초인공지능(ASI)이 만들어질 것인지는 확실치 않다.[19] 하지만 현재와 같은 속도로 AI 기술과 지능형 시스템이 발전한다면, 불과 10~20년 내에 의학과 엔터테인먼트, 수송 분야 등 특정 산업은 물론 일자리와 시장의 성격이 변화되고 수많은 제품과 서비스, 도구가 만들어질 것은 자명해 보인다.[20]

그런데 생성형AI 기술의 발전과 도입이 과거 자동화 및 정보화통신(IT) 기술 도입 때와 마찬가지로 제한된 영역에서 성과를 내는 데 초점을 맞추면서, 사회 구조 및 경제에 미치는 파괴적 효과에는 충분한 주의를 기울이지 않고 있다는 점은 여전히 문제다. 

1980년대 첨단기술의 도입 이래 지금까지 그랬던 것처럼, AI 기술 역시 최소한 중단기적으로는 부의 분배와 일자리의 미래에 부정적인 영향을 줄 것으로 보이며 지금 현재 딥페이크 범죄나 알고리즘의 폐혜에서 드러나듯 이미 몇몇 AI 기술의 도입이 우리 사회의 민주주의와 개인의 자유를 훼손하고 있는 정황이 확인되고 있다.[21]

2024년 노벨 경제학상을 수상한 다론 아제모을루(Daron Acemoglu) 매사추세츠공과대(MIT) 교수는 AI 기술의 발전과 도입이 궁극적으로 인간 노동의 ‘대체’가 아닌 ‘증강’ 혹은 ‘협력’으로 가야 하지만, 이미 자동화와 노동력 대체를 중심 목적으로 AI가 발전하고 있는 현실에서는 강력한 규제와 더불어 사회적 규범과 우선순위의 변화가 사회 경제적 비용 부담을 줄이기 위해서라도 긴요하다고 주장한다.[22]

그는 공동 수상자인 사이먼 존슨(Simon Johnson) MIT 슬로언 경영대 교수와 함께 저술한 <권력과 진보(Power and Progress)>에서, 현재 AI를 개발하고 배포하는 대기업은 사람을 더 생산적으로 만드는 ‘증강’보다 사람을 대체하는 ‘자동화’를 압도적으로 선호하기 때문에, 과도한 자동화 위험에 직면한다고 지적했다.[23] 디지털 전환(DX)의 기본 원칙들 중 ‘자동화 우선’(automation first) 전략은 이미 트렌드로 자리잡았다.

지난 1970년대 이후에는 규제 완화, 주주가치와 비용 절감 강조, 소수 첨단기술 회사의 사업 및 기술 모델의 지배력 강화, 자동화에 대한 보조금 증가 등 상대적으로 부정적인 변화가 이어졌다. 이는 앞서 1950년대와 1960년대의 ‘규제된 시장경제’가 노동자의 생산성과 수입을 증가시킨 많은 기술을 만들어낸 것과 대조적이다. 현재 AI 기술 발전 방향을 보면 대기업들이 ‘자동화’와 ‘모니터링’ 쪽에 이윤 동기와 사업 모델을 집중하고 있기 때문에, 당사자들에게 그 방향을 일자리 창출 및 기회의 확대, 인간의 자유와 민주주의를 지원하는 방향으로 바꾸도록 기대하기 힘들다.[24]

아제모을루 교수는 기술이 사회적 비용을 초래할 수 있다는 점을 보여주는 이론적인 틀을 제공하고 ▲정보 수집 및 통제 ▲노동시장 영향 ▲의사소통과 민주주의 등 세 가지 큰 영역에서 이를 입증한다.[25]

먼저 AI의 방대한 사용자 정보에 대한 요구 및 처리 능력은 개인정보보호 위반, 불공정 경쟁 유발, 행동 조작 등의 골치 아픈 단점을 낳는데, 이를 해결하기는 쉽지 않다. 특히 기업의 ‘가격 차별화’를 유도하기 위한 과도한 개인 정보 수집 및 배포는 결과적으로 소비자 잉여를 잠식하고 복구하기 힘든 개인정보를 침해해 복구하기 힘든 피해를 초래할 수 있다. 기업의 경제적 이익보다 사회적 비용이 더 크다는 것이다.

둘째, 자동화와 모니터링 강화에 초점을 맞춘 광범위한 기술 플랫폼으로서의 AI 기술 발전은 노동자와 일자리에 미치는 부정적인 영향을 극복하기 힘들다. AI가 자동화에 주로 사용될 경우, 이미 앞서 적용된 다른 자동화 기술들과 마찬가지로 당장은 노동의 몫과 사회적 복지를 줄일 수 있다.[26] 나아가 자동화에 대한 과도한 집중은 기술의 구성 왜곡을 불러오고, 인간의 판단의 범위를 좁히거나 고용주의 통제 강화로 인해 나쁜 의사결정 및 사회적 불안을 유발할 가능성이 높다.

셋째, 의사소통 면에서 소셜미디어의 ‘반향실 효과’(echo chamber)와 온라인에서 사적 의사소통의 불일치, 또한 이른바 ‘빅브라더’(big brother) 효과가 등장한다. 또한 자동화로 인해 직장 및 공장 내에서 인간의 권력이 감소할 수 있다.

이러한 세 가지 영역 외에서도 AI를 통한 ▲협상력의 차별화 ▲편향성의 증대 ▲테크노크라시에 대한 과도한 의존 ▲AI 기반 살상무기, 그리고 궁극적으로는 ▲지능형 기계의 인류 목표와의 일치 문제 ▲국제적 기술 경쟁의 문제 등 인류의 생존과 직결된 위험들도 존재한다.

이렇게 AI 기술이 가져올 정치적, 사회적, 경제적 효과가 부정적일 수 있지만, 반드시 불가피한 것은 아니다. 또한 AI 기술이 도입되기 전에도 기업과 노동자 그리고 사회적 양극화와 민주주의의 위협 등은 이미 존재했다. 하지만 AI가 워낙 혁신적이고 강력한 기술인 데다 범용적인 기술 특징을 가지고 있기 때문에, AI의 도입이 기존의 다양한 사회적 단층선을 더욱 심화시킬 위험이 존재한다는 것 또한 사실이다.

나아가 이러한 위험이 현실화되어 발생시킬 사회경제 전반의 비용을 감안한다면, 이를 줄이기 위해서라도 기업의 선택과 기술 발전의 방향을 재고해야 한다는 것이다.[27]

혁신은 그 자체로 규제되지 않을 때 자기교정력이 있는 역동성을 낳기 힘들다. AI 기술 역시 소비자잉여 잠식, 자동화를 통한 일방적 비용 절감, 통제 능력 강화 시도 등과 같은 오용 수요를 늘려 이에 따른 사회적 경제적 비용을 증폭시킬 위험이 있다.

생성형AI의 윤리와 거버넌스

기술이 내포한 위험과 사회적 비용에 대한 인식이 확산될수록, 기업이 감당해야 하는 부담도 늘어난다. 이 때문에 혁신 기술 도입 초기에 위험을 완화하는 전략을 우선 순위에 놓는 것이 필요하다.

딜로이트는 최신 ‘기술 윤리 및 신뢰 현황 연례 보고서 제3판’(State of Ethics and Trust in Technology)에서 기업이 장기적인 성공을 촉진하고 평판, 재무 및 규제 위험을 완화하기 위해서는 기술 전략에 신뢰와 윤리를 포함해야 할 필요성을 강조했다.[28]

딜로이트가 전 세계 1,800 명 이상의 비즈니스 및 기술 전문가를 대상으로 조사한 결과, 올해 응답자의 78%가 기술의 ‘안전성과 보안성’(safe and secure)을 최우선 윤리 원칙으로 꼽았다. 지난해 조사 때보다 38%포인트 증가한 수치다. 

또한 조사대상 응답자의 82%는 윤리적 기준을 준수하지 않을 경우 평판 손상을 최우선 우려 사항으로 꼽았으며, 80%가 필수 기술 윤리 교육을 이수해야 하며 이것이 윤리적 행동에 긍정적인 영향을 미친다고 대답했다. 또한 응답자의 69%는 정부가 새로운 기술에 대한 윤리적 기준을 설정하는 데 더 큰 역할을 해야 한다고 생각하는 것으로 나타났다.[29]

AI에 대한 다양한 쟁점을 통합적으로 다루는 분야를 최근 국제 논의 맥락에서는 AI 윤리(AI ethics) 개념으로 통칭한다.[30] 경제개발협력기구(OECD)는 AI 개발이 가져다줄 혜택과 위험을 고려하여 사회적으로 수용가능한 수준의 절충점을 찾으려 노력할 때 AI 윤리 원칙(ethics principle)이란 용어를 사용하고 있으며, 유엔 산하 유네스코(UNESCO)는 2021년 11월 총회에서 ‘AI 윤리 권고’를 채택했다.[31]

이처럼 AI의 사용을 관리하기 위한 규칙과 프로토콜이 개발되는 동안, 학계에서는 벨몬트 보고서(Belmont Report)를 실험 연구와 알고리즘 개발 내에서 윤리의 길잡이로 삼았다.[32] 벨몬트 보고서에서 나온 실험 및 알고리즘 설계의 가이드 역할을 하는 세 가지 주요 원칙은 ▲인간 존중(Respect for Person) ▲선행(Beneficent) ▲정의(Justice) 등이다.

AI 거버넌스는 AI 도구와 시스템이 안전하고 윤리적으로 유지되도록 AI의 연구, 개발 및 활용을 안내하는 프레임워크, 규칙 및 표준을 일컫는다. 이는 AI 시스템의 개발, 배포 및 유지 관리를 감독하는 데 필요한 정책, 절차 및 윤리적 고려 사항을 포괄한다.[33] 거버넌스는 조직의 가치와 사회적 규범에 부합하는 것 외에도 AI가 법적 및 윤리적 경계 내에서 작동하도록 보장하는 보호 장치를 구축한다. 

AI 거버넌스 프레임워크는 투명성, 책임성 및 공정성을 해결하고 데이터 처리, 모델 설명가능성 및 의사 결정 프로세스에 대한 표준을 설정하는 데 있어 체계적인 접근 방식을 제공한다. 이러한 AI 거버넌스를 통해 기업은 편견, 개인정보 침해 및 보안 위협과 관련된 위험을 완화하는 동시에 책임 있는 AI 혁신을 촉진할 수 있다. 이로써 인간 개입으로 인해 AI 생성 및 유지 관리에 발생하는 내재적 결함을 해결할 수 있는 것이다.

이를 위해 먼저 기업 가치와 사회의 기대에 부합하는 명확한 윤리적 기준을 수립해야 한다. 그 다음 규제 프레임워크는 관련 법률 및 산업 표준을 준수함으로써 AI 거버넌스에서 중심적인 역할을 한다. AI 기술이 계속 발전함에 따라 정부와 규제 기관은 새로운 규정을 개발하여 새로운 과제를 해결한다. 기업은 이러한 진화하는 요구 사항을 파악해 거버넌스 구조에 통합해야 한다. 

다음으로 책임 메커니즘은 AI 개발 라이프사이클 전반에 걸쳐 책임을 유지하는 데 필수적이다. 명확한 권한 라인, 의사 결정 프로세스 및 감사 추적이 포함된다. 책임을 확립함으로써 조직은 AI 관련 의사 결정 및 조치를 개인이나 팀으로 추적하여 적절한 감독 및 책임을 보장할 수 있다.

이 때 투명성이 중요하며, 이는 AI 시스템과 그 의사 결정 프로세스가 이해관계자에게 이해될 수 있도록 보장한다. 조직은 모델이 어떻게 작동하며 어떤 데이터를 사용하는지, 어떻게 결과에 도달하는지 설명하려고 노력해야 한다. 

마지막으로 위험 관리가 중요한 구성 요소다. 이는 AI 구현과 관련된 잠재적 위험을 식별, 평가 및 완화하는 것을 포함한다. 기업 조직은 AI 시스템에 내재된 기술적, 운영적, 평판적, 윤리적 위험을 해결하는 위험 관리 프레임워크를 개발해야 한다.

일부 기업들은 AI에 대한 윤리 지침을 성공적으로 구현하여 참조할 수 있는 사례를 제공한다. 일례로 SAP는 다양한 부서의 고위 간부로 구성된 AI 윤리 및 사회 운영 위원회를 설립하여 AI 윤리에 대한 지침 원칙을 만들고 시행했다. 또한 AI 기반 HR 서비스를 개발하여 윤리 원칙을 실용적으로 적용했다. 마이크로소프트는 AI 모델의 설계, 구축 및 테스트를 안내하는 ‘Responsible AI Standard’ 원칙을 수립했고, 구글은 인간 중심의 디자인 접근 방식을 사용하고 원시 데이터를 검토하여 피부색에 대한 평가를 개선하는 등 AI 시스템의 편견을 제거하는 데 중점을 두었다. 구글은 무기나 감시 기술과 같이 인권을 침해하는 AI 애플리케이션을 추구하지 않겠다고 공식 발표했다. 

개별 기업과 조직은 자신의 가치와 사회적 규범에 부합하는 방식으로 AI 시스템 개발을 이끌 윤리적 지침을 수립하여 이를 따를 수 있다. 하지만 국제 및 국내 표준에 부합하는 방식으로 인증을 획득하는 것도 중요한 일이다.

일례로 최근 국제표준화기구(ISO)에서 AI 윤리에 대한 표준화 체계(ISO/IEC 42001, 인공지능경영시스템)를 수립하여 정식 인증이 나오게 됐다. 이로써 기업들은 ISO가 정한 기준 아래 자체적으로 AI를 구축하고 운영할 수 있게 됐다. 

딜로이트도 인증 전문기업 BSI코리아와 ‘AI 시스템 신뢰 확보와 국제표준 인증’에 대한 업무협약을 체결하고, ISO 인증을 받을 수 있는 솔루션을 만들었다. 이 종합 솔루션에는 기업들이 신뢰할 수 있는 인공지능 기술을 개발·활용할 수 있도록 AI 거버넌스 체계 구축과 국제표준(ISO 42001)인증 부문이 모두 포함돼 있다.[34] 

올해 딜로이트 인도는 ‘AI 위험 관리’ 보고서를 통해 “위험 완화를 최우선으로 하고 전략적 통찰력 확보는 그 다음 순위에 놓아라”(risk mitigation ‘now’ and strategic insights ‘next’)라는 원칙을 제시했다.[35] 

보고서는 딜로이트의 프레임워크에 ISO 27001, ISO 42001, COBIT, GDPR, FAT ML(Fairness Accountability and Transparency in Machine Learning) 및 구현 지침과 같은 기존 프레임워크와 NIST SP 800, NIST AI 위험관리 프레임워크, CIS 제어 및 OWASP 등과 같은 모범 사례를 사용할 수 있다고 소개하고 있다.

현재까지 제시된 AI의 윤리와 거버넌스는 기술이 급격하게 발전하고 있기 때문에 잠정적인 성격을 특징으로 한다. 이러한 기술과 현실의 간극을 메우기 위해 딜로이트는 ‘신뢰할 수 있는 AI’(Trustworthy AI) 프레임워크를 제시한다. 신뢰할 수 있는 AI 목표를 달성하기 위해서는 기술 및 정책의 발전에 지속적으로 적응하는 동시에, 중요한 인적 감독을 유지하고 AI 거버넌스의 접근 방식을 통합해야 한다.[36]

국내에서는 과학기술정보통신부와 한국정보통신기술협회(TTA)가 정보통신단체표준인 ‘인공지능 시스템 신뢰성 제고를 위한 요구사항’(TTAK.KO-10.1497)을 지난 2023년 12월에 제정하여 발표했다.[37] 이는 앞서 2020년 12월 ‘국가 AI 윤리기준’과 분야별 ‘신뢰할 수 있는 AI 개발안내서’에 이은 것이다. 이 표준은 AI 신뢰성 국제표준인 ISO/IEC TR 24028(신뢰성 개요), ISO/IEC TR 23894(위험관리), ISO/IEC 22989(용어)의 신뢰성 개념과 용어, 요구사항과 내용의 일관성을 유지함으로써 국제 호환성을 확보했다.

올해 8월부터 유럽연합(EU)이 제정한 ‘인공지능법’(AI Act)이 공식 발효되었다.[38] 이는 AI에 대한 첫 포괄적 규제의 시작을 알리는 중요한 이정표다. 앞으로 각국 정부의 AI 규제는 더욱 확대될 것으로 예상되며, 이로 인해 기업들은 새로운 도전에 직면하게 될 것이다. 이제는 AI를 어떻게 활용할 것인지에 대한 논의 이전에 ‘AI 규제 대응’을 먼저 고민해야 하는 새로운 국면에 접어든 셈이다.

이에 따라 기업들은 현황 분석에서부터 체계, 실행 방안, 개념증명 검증, 개선 과제 도출 및 로드맵 구축에 이르기까지 체계적인 프로세스를 구축해야 한다. 이를 통해 사회적 책임과 법적 요구를 충족하고, 또한 변화하는 환경에 신속하게 대응하고 지속가능한 발전을 이룰 수 있다. 이는 궁극적으로 신뢰받는 AI 환경을 조성하는 데 기여하는 일이다.

1 . 딜로이트 인사이트, “기업의 생성형AI 사용 현황: 2024년 3분기 보고서”, 2024년 9월 24일
2. 딜로이트인사이트, “아시아 태평양 지역 TMT(첨단기술·미디어·통신) 분야 생성형AI 동향 및 전망”, 2024년 10월 26일
3. Ibid.
4. Deloitte Global, “State of Ethics and Trust in Technology” (Third Edition), Sep. 16, 2024
5. 연합뉴스, “딥페이크 성범죄 피의자 80%가 10대…촉법소년도 20%”, 2024년 9월 26일
6. 연합뉴스, ”'지인 능욕' 판치는데…낮잠 자는 '딥페이크 방지법'”, 2024년 8월 27일
7. 연합뉴스, “점점 정교해져 진화한 딥페이크…"AI창작물엔 'AI 활용' 표시", 2024년 10월 19일
8. 연합뉴스, “정부, 연내 AI기본법 제정 추진…AI안전연구소 11월 설립”, 2024년 9월 26일
9. Deloitte Global, “AI Risk Management: Risk mitigation "now" and strategic insights "next"”, Mar. 2024Daron Acemoglu, Simon Johnson, “History Already Tells Us the Future of AI,” Apr. 23, 2024
10. 박명호, “리카도의 "기계(機械)"에 대한 재해석(再解釋)”, KDI Journal of Economic Policy, 1995년 6월 30일
11. 18세기 인도의 면 방적기는 면화 45kg을 면사로 가공하는 데 약 5만 시간의 노동이 필요했지만 1779년 개발된 뮬 방적기는 같은 작업에 2,000시간의 노동이 필요해 산술적으로 25배의 생산성 향상을 이룩했다. 뮬 방적기에 증기기관을 결합하자 동일 양의 면사를 가공하는 데는 불과 300시간 밖에 걸리지 않아 160배 이상의 생산성을 기록하게 됐다. 이렇게 방적 자동화로 인해 원사 가격이 낮아지자 실로 천을 짜는 방직 수요가 증가했고, 면 방직산업은 산업화 이전 방적공 등 수많은 실업자를 포함해 수십만 명의 영국인을 고용하는 고소득 수공예 직업을 만들어 냈다. 하지만 이번에는 다시 옷감을 짜는 방직기술에 대한 혁신이 일어나게 된다. 그리고 1785년 방직기에 증기기관을 결합한 역직기가 개발되자 새로운 일자리를 구하지 못한 수공예 방직 장인들은 힘든 삶을 겪게 된다.
12. ThoughtCo., “Textile Industry and Machinery of the Industrial Revolution,” Jul. 01, 2019Daron Acemoglu, Simon Johnson, “Learning from Ricardo and Thompson: Machinery and Labor in the Early Industrial Revolution, and in the Age of AI,” Mar. 29, 2024
13. Daron Acemoglu, Simon Johnson, op. cit.
14. MIT Sloan School, “Why neural net pioneer Geoffrey Hinton is sounding the alarm on AI,”, May 23, 2023
15. 지디넷코리아, “"AI 위협 걱정"…노벨물리학상 수상자들, 왜 경고했나”, 2024년 10월 9일
16. Project Syndicate, “The Real AI Risks,” Aug. 16, 2024
17. 오픈AI의 샘 알트먼과 앤트로픽(Anthropic)의 다리오 아모데이 등과 같은 AI 업계 최선두 기업 최고경영자들은 ‘초지능’(superintelligence) 혹은 ‘강력한 인공지능’(powerful AI)이 빠르면 2026년, 길어도 10년 이내에 등장할 것이란 비교적 낙관적인 전망을 제시하고 있다. 하지만 이들이 주장하는 초지능과 강력한 AI의 정의는 인공일반지능(AGI)및 강인공지능(strong AI) 등과 같은 일반적인 용어와 유사하면서도 차이가 있으며, 일반 용어들에 대한 정의도 전문가들 사이에서 차이를 노정하고 있어 정확한 의미를 비교하기 쉽지 않다. Sam Altman, “The Intelligence Age”, Sep. 23, 2024; Dario Amodei, “Machines of Loving Grace,” Oct. 2024 참조Daron Acemoglu, “AI’s Future Doesn’t Have to Be Dystopian,” Boston Review, May 20, 2021
18. Daron Acemoglu, op. cit.
19. Daron Acemoglu, “AI Can Still Be Redirected,” Boston Review, May 20, 2021
20. Daron Acemoglu, Simon Johnson, “Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity”, May 16, 2023
21. Daron Acemoglu, op. cit.
22. Daron Acemoglu, “Harms of AI”, The Oxford Handbook of AI Governance, Jul. 18, 2023
23. 특히 AI로 인한 생산성 향상이 예상보다 작을 경우 사회적 복지가 줄어들 가능성이 더 높다. 2016년 이후 AI 도입이 크게 확대되었지만 생산성이 극적으로 향상되지 않은 이유에 대해서는, AI 기술이 사실 이미 인간이 매우 능숙한 일부 영역, 특히 자연어 처리(natural language processing), 안면 인식(facial recognition), 문제 해결(problem-solving) 등에 사용되었기 때문이라는 분석도 제기된다. 인간이 새로운 업무나 임무를 수행할 경우 고용 및 임금이 반드시 증가하며, AI가 이러한 새로운 업무나 임무에 활용될 경우 사회적 복지를 향상할 수 있을 것이다.
24. Daron Acemoglu, op. cit.
25. Deloitte, “State of Ethics and Trust in Technology” Annual report Third edition, Sep. 16, 2024
26. Deloitte, op. cit.
27. IBM, “What is AI ethics?", Accessed Oct. 31, 2024
28. 유네스코한국위원회, 한국법제연구원, 인공지능(AI) 윤리와 법 연구보고서 1권, “AI 윤리의 쟁점과 거버넌스 연구”, 2021년 12월 10일
29. 국가생명윤리정책원, “벨몬트 보고서: 인간 피험자 보호를 위한 윤리 원칙과 지침”, 2013년 1월 23일
30. Paloalto, “What Is AI Governance?”, Accessed Oct. 31, 2024
31. IT조선, “[AI 2023] 김우성 딜로이트 전무 "기업들, AI 활용하려면 AI 윤리 기준부터 마련해야"”, 2023년 9월 21일
32. Deloitte India, “AI Risk Management: Risk mitigation ‘now’ and strategic insights ‘next’”, Mar. 2024
33. 딜로이트 인사이트, “역동적 AI 거버넌스: 신뢰할 수 있는 AI 구축을 위한 혁신적 설계,” 2024년 10월 4일
34. IT조선, “TTA, '디지털 권리장전 입각' ICT표준 마련”, 2023년 12월 7일
35. 딜로이트 인사이트, “인공지능(AI) 시대의 새로운 국면, AI 규제와 기업 리스크 관리 전략”, 2024년 10월 10일

저자: 김사헌

성장전략부문 딜로이트 인사이트

딜로이트 글로벌 이코노미스트 네트워크

딜로이트 글로벌 이코노미스트 네트워크(Deloitte Global Economist Network, DGEN)는 다양한 이력과 전문성을 지닌 이코노미스트들이 모여 시의성 있고 흥미로운 콘텐츠를 생산하는 그룹이다.

Contacts

이메일로 주간경제리뷰를 받아보시려면 아래 주소로 이메일 주소를 기재하여 보내주시기 바랍니다.

E-mail: krinsightsend@DELOITTE.com

귀하께 도움이 되었습니까?