인류를 걱정한다면 AI보다 인간을 더 무서워해야 한다.
인공지능(AI)이 실존적 위험을 제기하는지 여부에 대한 의문이 최근 주목을 받고 있으며 많은 사람들이 AI의 임박한 위협에 대해 경고하고 있습니다. 예를 들어 미래생명연구소는 최근 AI 연구개발 중단을 촉구하는 공개 서한을 발표했고 , AI안전센터는 AI가 가하는 위협을 핵폭탄의 위협과 비교하고 이를 다스리기 위한 과감한 조치를 제안하는 공개 성명을 올렸다. 기술에서. 이 서신에는 주목할만한 기술 지지자와 저명한 인공 지능 기반 회사의 리더가 서명자에 포함되어 있기 때문에 대중의 큰 관심을 받았습니다.
냉소적인 사람은 이러한 공개 경고가 잠재적인 위험에 대한 주의를 환기시키는 동시에 그것이 얼마나 놀랍고 유용한지를 알려주는 기술에 대한 좋은 홍보 역할을 한다고 제안할 수 있습니다 . 보호합니다!”) 제작자가 향후 사용에 관한 정부 규제를 형성하도록 돕습니다.
여기서 우리는 덜 냉소적이지만 여전히 주목할 만한 우려를 제시합니다. 즉, 기술의 실존적 위협에 대한 이러한 엄청난 경고가 붉은 청어 역할을 한다는 것입니다. 잘못된 정보를 퍼뜨리고, 실업을 조장하고, 인간 지능을 능가하는 AI의 능력에 대해 제기된 두려움은 근거가 충분하지만(그리고 우리는 이러한 위험을 심각하게 받아들일 것을 강력히 옹호하지만), 우리는 이러한 공개 편지가 위협을 수행하는 인간의 현재 숙련도를 방해하는 것을 걱정합니다. 기술에 기인합니다. 실제로 인간은 AI의 발전으로 강조되는 명백하고 현존하는 위험입니다.
우리는 이러한 관점에 명확성이 필요하다는 것을 알고 있습니다. 일반적인 담론은 사람들에게 단순한 이분법적 입장을 취하도록 요구합니다. (“당신은 AI에 대한 규제를 강화하는 편입니까, 아니면 실제 위협과는 거리가 멀다고 말하는 편입니까?”) 우리는 AI가 현대에 임박한 위험이 될 수 있다고 주장하지만, 현 시점에서는 실제로는 그렇지 않습니다. 인류에 대한 훨씬 더 큰 위협을 완화 하는 최고의 도구는 바로 인간의 의사결정입니다. 현재 대규모 위협(기후 변화, 전염병, 핵전쟁 등)으로부터 세계를 보호하기 위한 최선의 접근 방식은 인간이 AI와 협력하여 삶과 죽음에 관한 중요한 영역 에서 의사 결정을 개선하는 것이라고 믿습니다.
일례로, 미래 생명 연구소(Future of Life Institute) 서신에서 다음과 같이 강조하는 잘못된 정보의 확산을 생각해 보십시오 .기계가 우리의 정보 채널을 선전과 허위로 가득 채우도록 놔두나요?” 특히 AI가 생성할 수 있는 콘텐츠의 비교할 수 없는 규모를 고려할 때 AI 전파 시스템에 의한 잘못된 정보의 확산은 의심할 여지 없이 우려스럽습니다. 그러나 최근 연구에 따르면 잘못된 정보를 퍼뜨리는 데는 기술보다 인간이 훨씬 더 큰 책임이 있습니다. 트위터에서 참뉴스와 거짓뉴스가 어떻게 확산되는지에 대한 연구에서 연구자들은 2006년부터 2017년까지 수백만 명의 사람들이 트윗한 126,000개의 이야기를 분석한 결과, 거짓뉴스가 참뉴스보다 더 빠르게 퍼지고, “가짜뉴스는 진실보다 더 많이 퍼진다는 사실을 발견했습니다. 로봇이 아니라 전파할 가능성이 더 높습니다.”(Vosoughi, Roy, Aral 2018) 실제로, 서한에 서명한 일부 주목할만한 사람들은 거짓 음모론을 퍼뜨리는 데 기여했으며 ,오해의 소지가 있는 정보 .
잘못된 정보보다 더 무서운 위협은 AI안전센터가 공개 성명에서 강조한 'AI의 소멸 위험'이다. 그러나 핵전쟁과 같은 멸종 수준의 사건을 일으킬 가능성이 기계와 인간 중 어느 쪽이 더 큰지는 인간이 여전히 우위에 있는 것 같습니다. 대량살상무기를 포함한 워게임 시나리오에서 고위 지도자들이 채택한 의사결정 과정을 분석한 최근 실증적 연구에서 인간은 재앙적인 공격을 시작하는 쪽으로 실수를 저지르는 놀라운 경향을 보여주었습니다.. 이러한 시뮬레이션이 실제로 구현된다면 기계로 구동되는 시뮬레이션보다 인류에게 훨씬 더 심각한 위험을 초래할 것입니다. 중요한 의사 결정에서 AI의 사용에 대한 우리의 탐구는 거의 모든 시나리오에서 AI가 인간의 결정보다 우월하다는 것을 보여주었습니다. 대부분의 경우 AI는 처음에는 인간이 하지 않는 선택을 합니다. 그러나 좀 더 신중하게 고려하고 숙고한 후에는 마음을 바꾸고 그것이 올바른 결정이었다는 것을 깨닫게 됩니다.
기계 지능이 인간보다 나은 사례
인간과 AI의 위험 비교를 냉철하게 상기시키기 위해 우리는 현재의 기계 지능이 이미 인간의 성능에 도전하고 있는 것처럼 보이는 몇 가지 영역을 강조 합니다 . 미국도로교통안전국(National Highway Traffic Safety Administration) 과 일반서비스청(General Services Administration) 의 보고서에 따르면 연간 600만 건이 넘는 사고(사망 건수 42,939건) 중 98%가 사람의 실수로 인한 것이며 자율주행차는 이 비율을 줄일 것으로 추정됩니다.
마찬가지로 , 의료 진단 영역에서 20년간의 연구에 걸쳐 발표된 기사에 대한 메타 분석에서는 다양한 영역(예: 뇌종양)에서 기계 성능이 인간 의사의 성능보다 점점 더 우수해지고 있음을 보여줍니다.
최근 AI는 예술 및 광고 창의성 경쟁 에서 우승하여 예술품 인증 에서 인간의 성능을 능가 하고 법적 맥락에서 인간이 만든 잘못된 신념 (허위 식별로 인해 발생)을 수정하고 재판 시간을 20% 이상 단축했습니다.
마지막으로 교신 저자의 현재 연구 에서는 최소한의 편향된 조건에서 주요 이해관계자의 사고를 복제하는 합리적이고 구성된 기계 기반 의사결정 도구인 " 디지털 트윈" 을 사용하여 리더가 중요한 문제와 관련된 선택을 할 수 있는 가능성을 조사하고 있다는 점은 주목할 만합니다. 결정(즉, 핵 및 기후 관련 중요한 결정).
AI에 대해 제기된 일상적인 우려는 기계보다 인간에게 훨씬 더 많이 적용됩니다. 채용 결정, 의료 진단 또는 이미지 감지와 관련된 알고리즘이 특정 사회 집단에 부당하게 불이익을 주는 결과를 생성하는 현상인 알고리즘 편향을 생각해 보세요. 예를 들어, Amazon이 신규 지원자의 이력서에 점수를 매기기 위해 알고리즘 채용 도구를 구현했을 때 알고리즘은 체계적으로 여성 지원자를 남성보다 더 나쁘게 평가했습니다. 그 이유는 알고리즘이 지난 10년 동안 제출된 이력서 중 남성이 불균형적으로 훈련되었기 때문입니다. 즉, 인간의 편견에 대해 훈련된 알고리즘은 이러한 편견을 재현합니다 .
그러나 인간과 달리 알고리즘 편향은 쉽게 프로그램 해제될 수 있으며, 경제학자 Sendhil Mullainathan이 말했듯이 "편향된 알고리즘은 편향된 사람들보다 수정하기가 더 쉽습니다." Mullainathan과 동료들의 연구에 따르면 UnitedHealth가 환자의 건강 위험을 평가하기 위해 사용한 알고리즘은 의료 비용 측면에서 질병을 측정했기 때문에 백인 환자에 비해 흑인 환자를 체계적으로 강조했습니다. 흑인 환자에게 더 적은 비용을 지출함)(Obermeyer et al. 2019).
그러나 일단 식별되면 연구원들은 알고리즘의 이 기능을 쉽게 수정하여 상대적으로 편견이 없는 위험 점수를 생성할 수 있었습니다. 다른 연구에서는 재판을 기다리는 피고인에게 보석금을 허용할지 여부를 결정하는 측면에서 알고리즘이 인간 판사보다 인종적으로 덜 편향된 결과(및 더 효과적인 공공 안전 결과)를 생성할 수 있음을 보여주었습니다(Kleinberg et al. 2018). 알고리즘은 편향될 수 있지만, 그 편향은 인간의 편향보다 덜 뿌리깊고 더 유연해 보입니다. 고용 및 대출 맥락에서 관리자가 편향된 알고리즘을 거부하고 보다 편향된 인간을 선호한다는 최근 연구 결과에 따르면 인간이 이러한 기능의 주도권을 유지해야 한다는 제안은 기껏해야 의심스럽습니다(Cowgill, Dell'Acqua 및 마츠 2020).
마지막으로 사이버 보안에 대한 위협을 고려하십시오. 평론가들은 대규모 언어 모델이 사이버 범죄를 민주화하여 해커의 무기고에 도구를 추가했다고 경고했지만, 현재까지 대부분의 세간의 이목을 끄는 정보 유출 및 해킹은 AI에 의존하지 않는 인간(즉, 시스템을 알고 불만을 품은 직원)에 의해 발생 했습니다 . ' 키 비밀번호를 기억하여 공격을 감행하거나, 소프트웨어 사용 사례에 대해 잘못된 가정(예: "아무도 1,000,000자 길이의 비밀번호를 생성하지 않을 것")을 만들어 향후 공격을 효과적으로 가능하게 하는 나쁜 프로그래머가 클래식 버퍼 로 이어집니다. 오버플로 해킹). 실제로 AI는 방어 의 최후 보루인 경우가 많다.이러한 해킹에 맞서 복잡한 인간 코딩 실수를 조기에 식별하고 수정합니다.
최근 온라인 채팅 그룹에서 고도로 기밀인 자료를 폭로한 방위군 잭 테세이라(Jack Teixeira)는 민감한 문서에 접근하기 위해 정교한 기술이 필요하지 않았습니다. 그는 국방부로부터 일급 비밀 허가를 받았습니다. 또한 IBM이 최근 실시한 연구에 따르면 보안 침해의 95%가 피싱 사기 또는 악성 코드 다운로드와 같은 사람의 실수로 인해 발생한 것으로 나타났습니다. 오히려 현재 AI가 제기하는 가장 우려되는 사이버 보안 위험은 결함이 있는 인간이 훈련한 코드에 대한 의존도가 높아진 데서 비롯됩니다. AI는 해킹 가능한 인간 코드를 가져와 이를 사용하여 새로운 코드를 생성함으로써 인간이 생성한 오류를 더욱 확산시킵니다. 현재 유일하게 우려되는 사이버 보안 공격AI에는 인간의 의사소통을 시뮬레이션하여 인간을 속여 핵심 정보를 공개하는 AI가 포함됩니다. 사이버 보안은 기술이 문제보다는 해결책이 될 가능성이 더 높은 경우를 나타낼 수 있습니다. 예를 들어 AI 와 함께 작업하는 인간 은 딥페이크와 같은 기계 조작 미디어를 탐지하는 데 있어 인간보다 더 뛰어난 성능을 보인다는 연구 결과가 있습니다(Groh et al. 2021). ).
기술이 원치 않는 결과를 초래하더라도 버튼을 누르는 사람은 인간인 경우가 많습니다. AI가 실업에 미치는 영향을 고려하십시오. 미래생명연구소 서한은 AI가 일자리를 없앨 것이라는 우려를 제기하지만, 일자리를 없앨지 말지는 인간이 궁극적으로 내리는 선택이다. AI가 고객 서비스 담당자 등의 업무를 수행 할 수 있다고 해서 기업이 이러한 업무를 봇에 아웃소싱 해야 한다는 의미는 아닙니다 . 실제로 연구에 따르면 많은 고객이 봇보다 인간과 대화하는 것을 선호하는 것으로 나타났습니다., 대기열에서 기다리는 것을 의미하더라도. 유사한 맥락에서, "인터넷", "소셜 미디어" 또는 "알고리즘"이라고 불리는 일련의 상호 연결된 온라인 기능과 같은 AI 기반 시스템이 정신 건강을 파괴하고 정치적 양극화를 야기하거나 위협을 가하고 있다는 진술이 점점 더 일반화 되고 있습니다 . 민주주의는 명백한 사실을 무시합니다. 이러한 시스템은 인간에 의해 채워지고 운영됩니다. 비난 기술을 사용하면 사람들이 어려움을 겪지 않게 됩니다.
AI에 대한 우려의 표현은 신기술에 대한 기대감을 조심스럽게 맞추는 데 매우 중요하지만, 기술 위협에 대한 과도한 뉴스 주기는 인간의 위협으로부터 주의를 딴 데로 돌릴 수 있습니다. 최근 연구에 따르면 인간은 "한 가지 위협에 더 많은 관심을 기울이면 다른 위협에 대한 관심이 감소"하는 "유한한 주의력 풀"을 가지고 있는 것으로 나타났습니다(Sisco MR et al. 2023). 따라서 우리는 AI의 부상과 그에 따른 사생활 보호, 인간 생존, 진실과의 관계에 대한 해로움에 맞서 싸울 때, 기계의 도움 없이 이러한 해악을 저지를 수 있는 능력을 이미 갖춘 인간에게도 똑같이 주의를 기울여야 합니다. 특히, AI의 위험에 대한 대화에 참여할 때 벤치마크는 종종 "AI가 완벽한가 ?"라는 점을 우리는 인지했습니다.이 작업을 처리하는 데 있어"(중요한 결정을 내리거나 자율주행차를 안내하는 등) " 인간보다 낫 습니까?" 많은 경우 후자의 질문에 대한 대답은 '그렇다'입니다. AI는 인류에 대한 위험을 완화할 수 있습니다.