과학

인공지능(AI)의 12가지 위험

과학세상 2024. 1. 7. 22:42
반응형

인공지능(AI)의 12가지 위험

누가 어떤 목적으로 AI를 개발하고 있는지에 대한 질문은 AI의 잠재적인 부정적인 측면을 이해하는 것을 더욱 중요하게 만듭니다. 이 글에서는 AI의 잠재적 위험과 이를 관리할 수 있는 방법에 대해 자세히 살펴봅니다.

 

인공지능(AI)의 12가지 위험

 

AI는 위험한가요?

기술 업계에서는 오랫동안 AI의 위협에 대해 논의해 왔으며, 가장 큰 위험 요소로 일자리 자동화, 가짜 뉴스의 확산, AI 기반 무기의 위험한 군비 경쟁을 꼽고 있습니다.

 

1. AI의 투명성 및 책임성 부족

AI와 딥러닝의 모델은 기술에 직접 관여하는 사람들조차 이해하기 어려운 경우가 있습니다. 즉, AI가 어떻게 그리고 왜 결론에 도달하는지, AI 알고리즘이 어떤 데이터를 사용하는지, 왜 편향되거나 안전하지 않은 결정을 내리는지에 대한 설명이 부족하다는 뜻입니다. 이러한 우려로 인해 설명 가능한 AI의 사용이 증가하고 있지만, 투명한 AI 시스템이 보편화되기까지는 아직 갈 길이 멀다.

2. AI 자동화는 일자리 감소로 이어질 것이다

마케팅, 제조, 의료 등 다양한 산업에서 AI 기술을 도입하면서 AI를 통한 업무 자동화 문제가 시급한 문제로 대두되고 있습니다. 맥킨지에 따르면 2030년까지 미국 경제에서 현재 근무하는 시간의 최대 30%가 자동화될 수 있다고 합니다. 골드만삭스는 AI 자동화로 인해 3억 개의 정규직 일자리가 사라질 수 있다고 추정합니다.

 

미래학자 마틴 포드는 빌트인과의 인터뷰에서 "실업률이 낮은 이유는 누가 일자리를 찾지 않는지 모르기 때문"이라고 말했지만, AI의 등장으로 "그런 상황이 지속되지는 않을 것 같다"라고 말했습니다.

"AI 로봇이 더 똑똑해지고 능숙해지면 같은 일을 하는 데 필요한 사람의 수는 줄어들 것입니다. AI는 2025년까지 9,700만 개의 새로운 일자리를 창출할 것으로 예상되지만, 많은 근로자가 이러한 기술 일자리에 필요한 기술을 갖추지 못했기 때문에 기업은 직원의 기술력을 향상해야 합니다. 직원들이 기술을 향상하지 않으면 뒤처지게 됩니다.

 

맥도널드에서 햄버거를 뒤집는다면 더 많은 자동화가 새로운 일자리를 창출할까요? 포드는 이렇게 말합니다. "아니면 그 새로운 일자리는 많은 교육과 훈련이 필요합니까, 아니면 대인관계 기술이나 창의성과 같이 컴퓨터가 아직은 잘하지 못하는 본질적인 재능을 필요로 합니까?"라고 말합니다.

 

3. AI 알고리즘에 의한 사회적 조작

2022년 필리핀 선거에서 페르디난드 마르코스 주니어가 젊은 필리핀인들의 표를 얻기 위해 틱톡 트롤링 군대를 사용한 사례에서 볼 수 있듯이, AI의 또 다른 위험은 사회 조작입니다.

 

틱톡은 AI 알고리즘에 의존하여 사용자가 플랫폼에서 보는 미디어와 관련된 콘텐츠로 사용자의 피드를 채우는 소셜 미디어 플랫폼의 한 예일 뿐입니다. 이 앱에 대한 비판은 이 과정과 유해하고 부정확한 콘텐츠를 걸러내지 못하는 알고리즘에 초점을 맞추고 있으며, 잘못된 정보로부터 사용자를 보호하는 틱톡의 능력에 대한 우려를 불러일으키고 있습니다.

 

온라인 미디어와 뉴스는 인위적으로 생성된 이미지와 동영상, 인공지능 음성 변환기, 정치 및 사회 영역에 침투한 딥페이크의 등장으로 점점 더 불투명해지고 있습니다. 이러한 기술을 사용하면 사실적인 사진, 동영상, 음성 클립을 쉽게 만들거나 기존 사진이나 동영상에 등장하는 인물을 다른 사람으로 대체할 수 있습니다. 그 결과, 악의적인 행위자들은 잘못된 정보와 전쟁 선전을 퍼뜨릴 수 있는 새로운 방법을 갖게 되었고, 진짜 뉴스와 가짜 뉴스를 구분하는 것이 거의 불가능한 악몽의 시나리오가 만들어졌습니다.

 

말 그대로 자신의 눈과 귀를 믿을 수 없고, 역사적으로 최고의 증거로 여겨져 온 것을 믿을 수 없는 상황에서 무엇이 진실이고 무엇이 거짓인지 아무도 알 수 없습니다.

4. AI를 통한 사회 감시

포드는 보다 현실적인 위협 외에도 AI가 프라이버시와 보안에 부정적인 영향을 미칠 수 있다고 지적했습니다.

대표적인 예로 중국이 사무실과 학교에서 안면 인식 기술을 사용하는 것을 들 수 있습니다. 중국 정부는 사람들의 움직임을 추적할 뿐만 아니라 그들의 활동, 관계, 정치적 견해를 모니터링하기에 충분한 데이터를 수집할 수 있습니다.

 

또 다른 예로 미국 경찰이 범죄 발생 장소를 예측하기 위해 예측 단속 알고리즘을 사용하는 것을 들 수 있습니다. 문제는 이러한 알고리즘이 체포율에 영향을 미쳐 흑인 커뮤니티에 불균형적으로 영향을 미친다는 것입니다. 그 결과 과잉 법 집행이 이루어지고 자칭 민주주의 국가가 AI가 권위주의 무기로 사용되는 것을 막을 수 있는지에 대한 의문이 제기되고 있습니다.

 

권위주의 정권은 AI를 사용하고 있고, 또 사용하려고 합니다. 문제는 그것이 서구와 민주주의를 어느 정도까지 훼손할 것이며, 어떤 제약을 가할 것인가 하는 것입니다.

 

5. AI 도구의 개인정보 보호 부족

온라인에서 AI 챗봇이나 AI 얼굴 필터를 사용해 본 적이 있다면, 데이터가 수집되고 있을 가능성이 높습니다.

특히 AI 도구가 무료인 경우, AI 시스템은 사용자 경험을 개인화하거나 사용하는 AI 모델을 훈련하기 위해 개인 데이터를 수집하는 경우가 많습니다.

 

2023년 ChatGPT에서 발생한 버그 사고 중 하나는 "일부 사용자가 다른 활성 사용자의 채팅 기록 제목을 볼 수 있었다"는 것이었습니다. 미국에는 개인정보 보호법이 있지만, AI로 인한 개인정보 피해로부터 시민을 보호하는 명확한 연방법은 없습니다.

6. AI 편향성

다양한 형태의 AI 편견도 해롭습니다.

프린스턴 대학교의 컴퓨터 과학 교수인 올가 루사코브스키는 뉴욕 타임스와의 인터뷰에서 AI 편견은 성별이나 인종에만 국한되지 않는다고 말했습니다. 데이터 및 알고리즘 편향(후자는 전자의 편향을 '증폭'시킬 수 있음) 외에도 AI는 인간이 설계합니다.

 

루사코프스키가 말했습니다. "AI 연구자들은 압도적으로 남성, 특정 인종, 사회경제적으로 풍요로운 지역에서 자랐으며 비장애인이 압도적으로 많습니다. 우리는 상당히 동질적인 집단이기 때문에 글로벌 이슈에 대해 폭넓게 생각하기가 어렵습니다."

 

AI 개발자의 제한된 경험은 음성 인식 AI가 특정 방언이나 억양을 이해하지 못하는 이유나 기업이 인류 역사상 악명 높은 인물을 사칭하는 챗봇의 결과를 고려하지 않는 이유를 설명할 수 있습니다. 개발자와 기업은 소수자를 위험에 빠뜨리는 강력한 편견과 편견을 영속화하지 않도록 더욱 주의를 기울여야 합니다.

 

7. AI로 인한 사회경제적 불평등

AI 알고리즘에 내재된 편견을 인정하지 않으려는 기업의 태도는 AI 기반 채용을 통한 적극적 고용 조치 이니셔티브를 약화시킬 수 있으며, AI가 얼굴 및 음성 분석을 통해 후보자의 특성을 측정할 수 있다는 생각은 여전히 인종적 편견으로 오염되어 기업이 없애겠다고 주장하는 차별적 채용 관행을 재생산하는 것을 방지할 수 없습니다.

 

또한 AI로 인한 일자리 감소가 사회경제적 불평등을 심화시킬 것이라는 우려도 있으며, AI가 적용되는 방식에는 분명한 계급적 편향성이 존재합니다.

 

수동적이고 반복적인 업무를 수행하는 블루칼라 근로자들은 자동화로 인해 임금이 최대 70%까지 삭감된 반면, 화이트칼라 근로자들은 거의 영향을 받지 않았고 심지어 임금이 상승한 경우도 있습니다.

 

AI가 사회적 경계를 허물었다거나 더 많은 일자리를 창출했다는 일방적인 주장은 AI가 미치는 영향의 전체 그림을 그리지 못합니다. 인종, 계급 및 기타 범주에 따른 차이를 고려하지 않으면 AI와 자동화가 특정 개인이나 집단에 어떤 혜택을 주고 다른 집단은 희생되는지 파악하기 어렵습니다.

8. AI는 윤리와 선의를 훼손한다

기술자, 언론인, 정치인, 심지어 종교 지도자들도 AI의 잠재적인 사회경제적 함정에 대해 경고하고 있습니다.

프란치스코 교황은 2019년 바티칸에서 열린 '디지털 시대의 공동선' 콘퍼런스에서 "유행하는 의견과 거짓 데이터를 퍼뜨리는" AI의 능력에 대해 경고하며, 적절한 감독과 통제 없이 기술을 개발하면 엄청난 결과를 초래할 수 있다고 강조했습니다.

"그는 "소위 인류의 기술 발전이 공동선의 적이 된다면, 그것은 가장 강력한 법에 의해 정의되는 야만의 형태로 불행한 퇴행으로 이어질 것"이라고 말했습니다.

 

ChatGPT나 Bard와 같은 생성형 AI 도구의 등장은 이러한 우려를 더욱 구체화합니다. 많은 사용자가 과제 작성을 피하기 위해 이 기술을 사용하고 있으며, 이는 학문적 정직성과 창의성을 위협하고 있습니다.

 

어떤 사람들은 아무리 많은 영향력 있는 사람들이 AI의 위험성을 지적해도 돈이 되는 한 사람들은 계속해서 AI의 경계를 넓혀갈 것이라고 우려합니다.

 

9. 인공지능이 탑재된 자율 무기

2016년, AI 및 로봇공학 연구자를 포함한 3만 명 이상의 사람들이 공개서한을 통해 AI를 이용한 자율 무기에 대한 투자에 반대하는 목소리를 냈습니다.

 

오늘날 인류에게 중요한 질문은 글로벌 AI 군비 경쟁을 시작할 것인지 멈출 것인지입니다. 주요 군사 강대국들이 AI 무기 개발을 추진한다면 글로벌 군비 경쟁은 사실상 피할 수 없으며, 이 기술 궤적의 종착점은 분명합니다.

이러한 예측은 이미 규제가 거의 또는 전혀 없이 스스로 목표물을 탐지하고 파괴하는 치명적인 자율 무기 시스템의 형태로 현실화되고 있습니다. 이러한 강력하고 복잡한 무기의 확산으로 인해 세계에서 가장 강력한 국가들 중 일부가 불안에 떨고 있으며, 기술 냉전을 불러일으키고 있습니다.

 

이러한 새로운 무기의 대부분은 지역 민간인에게 큰 위험을 초래하지만, 자율 무기가 잘못된 사람의 손에 들어가면 그 위험은 훨씬 더 커집니다. 해커들은 다양한 유형의 사이버 공격에 능숙하며, 악의적인 공격자가 자율 무기에 침투하여 절대적인 아마겟돈을 일으키는 것은 상상하기 어렵지 않습니다.

정치적 갈등과 호전적인 성향이 억제되지 않는 한, AI는 최악의 의도로 악용될 수 있습니다.

10. AI 알고리즘으로 인한 금융 위기

금융 업계는 일상적인 금융 및 거래 프로세스에 AI 기술을 도입하고 있습니다. 그 결과 알고리즘 트레이딩은 시장에 다음 주요 금융 위기를 초래할 수 있습니다.

 

AI 알고리즘은 인간의 판단과 감정의 영향을 받지 않지만, 상황, 시장 상관관계, 인간의 신뢰와 두려움과 같은 요소는 고려하지 않습니다. 또한 이러한 알고리즘은 단 몇 초 만에 매도하여 소액의 수익을 올리는 것을 목표로 수천 건의 거래를 고속으로 실행합니다. 수천 건의 거래를 매도하면 투자자들이 같은 행동을 하도록 위협하여 갑작스러운 폭락과 극심한 시장 변동성을 유발할 수 있습니다.

 

2010년 플래시 크래시와 나이트 캐피털 플래시 크래시와 같은 사례는 거래 집약적인 알고리즘이 고의적이든 아니든 대규모의 빠른 거래를 할 때 어떤 일이 일어날 수 있는지 상기시켜 줍니다.

 

인공지능이 금융계에 도움이 되지 않는다는 말은 아닙니다. 실제로 인공지능 알고리즘은 투자자가 시장에서 더 현명하고 정보에 입각한 결정을 내리는 데 도움이 될 수 있습니다. 하지만 금융 기관은 AI 알고리즘과 그 알고리즘이 어떻게 의사 결정을 내리는지 이해해야 합니다. 투자자를 겁주고 금융 혼란을 야기하지 않으려면 금융 기관은 AI를 구현하기 전에 AI가 신뢰를 증가시킬지 감소시킬지 고려해야 합니다.

 

11. 인간의 영향력 상실

AI 기술에 지나치게 의존하면 사회 일부에서 인간의 영향력을 상실하거나 인간 기능이 부재할 수 있습니다.

 

예를 들어, 의료 분야에서 AI를 사용하면 인간의 공감 능력과 합리성이 감소할 수 있고, 창의적인 작업에 생성형 AI를 적용하면 인간의 창의성과 감정 표현이 감소할 수 있으며, AI 시스템과의 과도한 상호작용은 동료 간의 의사소통과 사회적 기술을 감소시킬 수 있습니다.

 

요컨대, AI는 일상적인 업무를 자동화하는 데는 매우 유용하지만, 인간의 지능과 기술, 그리고 커뮤니티 전반의 필요를 억압하고 있는 것은 아닌지 의문을 가질 수 있습니다.

12. 통제할 수 없는 자기 인식 AI

전직 구글 엔지니어가 AI 챗봇 '람다'가 인간처럼 감각을 갖고 말을 한다는 증언으로 유명해진 가운데, AI 일반지능과 궁극적으로 AI 초지능을 갖춘 시스템 개발이 AI의 다음 큰 이정표로 여겨지고 있습니다.

 

AI 일반 지능과 궁극적으로 AI 초지능 시스템 개발이 AI의 차세대 이정표로 여겨지고 있는 가운데, 이러한 개발을 중단해야 한다는 목소리가 커지고 있습니다.

반응형