. 자율적 인 AI 제어 무기 : STEPHEN HAWKING, ELON MUSK 및 수천 명에 대한 금지 조치 - 과학 기술

자율적 인 AI 제어 무기 : Stephen Hawking, Elon Musk 및 수천 명에 대한 금지 조치

터미네이터, 스티븐 호킹, 엘론 머스크
프로모션 이미지 터미네이터 Wiki / Wikimedia / Wikimedia

21 세기 핵무기 경쟁을 피하려고

공상 과학이 다루고있는 문제에 대해 논의하자마자, 많은 사람들은 문제가 실제 문제가 아니라고 생각하기에는 다소 '어리 석다'고 즉시 결정합니다. 역사가 우리에게 무엇인가를 보여 주면 어제의 허구가 내일의 현실이 될 수 있고 일이 빠르게 변하기 때문에 당신이 그보다 더 똑똑해지기를 바랍니다. 소설 속의 모든 것이 사실이되거나 일부 사람들이 원하는만큼 빨리 지나가지는 않지만 (제트 팩은 어디에서나 삼가야합니다), 그러나 어떤 일이 있습니다.

Wright Brothers는 1903 년에 누군가를 태울 수있는 최초의 작업 비행기를 만들었고, 거의 10 년 후 비행기는 제 1 차 세계 대전에서 사용되고 거의 2 차 세계 대전 후에 사용되었습니다. 콩코드가 날고 있었다

두 배의 음속

1969 년, 나중에는 완전한 생애가 아닙니다.

수십 년 동안 이것에서 (왼쪽)에서 이것으로 (오른쪽) 라이트 형제 비행기와 콩코드

위키 미디어 / 퍼블릭 도메인

제 평생 인터넷은 군사 및 학계 네트워크에서 수천 대의 매우 느린 (오늘날 표준에 따라) 컴퓨터를 수십억 명의 사람들과 연결하는 데 사용되었으며, 대부분은 무선 연결된 슈퍼 컴퓨터를 주머니에 넣었습니다. 이 거대한 네트워크는 이제 고화질 비디오, 수십억 페이지의 텍스트 및 수십억 페이지의 이미지를 호스팅하여 Google과 같은 좁은 AI로 1 초 이내에 무료로 검색 할 수 있으므로 건초 더미에서 필요를 쉽게 찾을 수 있습니다. 빠른 발전에 대해 이야기하십시오!

그러나 공상 과학이 현실이되면 (자율 주행 자동차 나 포켓 슈퍼 컴퓨터와 같이) 10 ~ 2 년 전에 아무도 광범위하게 사물을 얼마나 빨리 예측할 수 없었더라도 빠르게 익숙해지고 당연한 것으로 받아들입니다. 작고 보기 흉한 사람.

인공 지능 (AI)을 군사적으로 사용하는 경우에도 같은 일이 일어나고 있으며, 1, 632 명의 AI / 로보틱스 연구원을 포함하여 가장 똑똑한 사람들로 구성된 매우 유명한 그룹이 금지령을 요구하는 공개 서한을 작성했습니다. "의미로운 인간 통제를 넘어서는 공격적인 자율 무기".

공개 서한의 텍스트는 다음과 같습니다.

자율 무기는 사람의 개입없이 대상을 선택하고 참여시킵니다. 예를 들어, 사전 정의 된 특정 기준을 충족하는 사람들을 검색하고 제거 할 수있는 무장 쿼드 콥터를 포함 할 수 있지만, 인간이 모든 표적 결정을 내리는 순항 미사일 또는 원격 조종 드론은 포함되지 않습니다. 인공 지능 (AI) 기술은 그러한 시스템의 배치가 수십 년이 아닌 몇 년 내에 가능할 정도로 실질적으로 합법적이지는 않지만 실현 가능하고 스테이크가 높은 지점에 도달했습니다. 그리고 핵무기.

쿼드 콥터

위키 미디어 / CC BY-SA 3.0

이케 스, 이제 무장 한 쿼드 콥터에게 쫓기고있는 악몽이 생길거야

예를 들어, 인간 병사를 기계로 대체하는 것은 소유자의 사상자를 줄임으로써 나쁘지만 전투에 대한 임계치를 낮추면 나쁘다는 등의 많은 자율적 인 무기에 대한 논쟁이 있었다. 오늘날 인류의 주요 질문은 글로벌 AI 무기 경쟁을 시작할지 아니면 시작하지 못하도록하는 것입니다. AI 무기 개발을 통해 주요 군사력이 밀려 나면 세계 무기 경쟁은 불가피하며이 기술 궤적의 종말은 분명합니다. 자율 무기는 미래의 칼라 쉬니 코프가 될 것 입니다. 핵무기와는 달리, 비용이 많이 들거나 구하기 어려운 원자재가 필요하지 않기 때문에 모든 중요한 군사력이 대량 생산하기에 편재하고 저렴하게 될 것입니다. 암시장과 테러리스트, 대중을 더 잘 통제하기를 원하는 독재자, 민족 청소를 영속하려는 군벌 등이 나타날 때까지는 시간 문제가 될 것입니다. 자율 무기는 암살, 불안정화와 같은 작업에 이상적입니다 국가, 인구를 정복하고 특정 인종 집단을 선택적으로 살해하는 것 . 그러므로 우리는 군사 AI 군비 경쟁이 인류에게 유익하지 않을 것이라고 믿습니다. AI가 사람들을 죽이는 새로운 도구를 만들지 않고 인간, 특히 민간인을 위해 전장을 더 안전하게 만드는 방법에는 여러 가지가 있습니다.

대부분의 화학자 및 생물학자가 화학 또는 생물학적 무기 제작에 관심이없는 것처럼 대부분의 AI 연구원은 AI 무기 제작에 관심이 없으며 다른 사람이 AI 무기를 제작하여 자신의 분야를 손상시키지 않기를 바랍니다. 미래의 사회적 혜택을 줄입니다. 실제로 화학자들과 생물 학자들은 대부분의 물리학 자들이 우주 기반 핵무기 금지 레이저 무기 금지 조약을지지 한 것처럼 화학 및 생물학적 무기를 성공적으로 금지 한 국제 협약을 광범위하게지지 해왔다.

요약하자면, AI는 여러면에서 인류에게 혜택을 줄 수있는 잠재력이 크다고 믿고 있으며, 이 분야의 목표는 그렇게해야합니다. 군사 AI 무기 경쟁을 시작하는 것은 나쁜 생각 이며, 의미있는 인간 통제를 넘어서 공격적인 자율 무기를 금지함으로써 방지해야합니다.

군용 AI 무기 경주에 반대하는 경우이 공개 서한에 서명하십시오 : http://t.co/yyF9rcm9jz

— Elon Musk (@elonmusk) 2015 년 7 월 28 일

서명자 중 일부는 다음과 같습니다 (알론, Muson, Stephen Hawking, Steve Wozniak, Apple의 공동 설립자, Noam Chomsky, Daniel Dennett 등).

AI 무기 문자 서명자

FLI / 스크린 캡처

인간의 개입없이 죽일 수있는 자율 무기가 좋은 생각처럼 들리지 않으면 공개 서한에 서명하기를 바랍니다. 미리 감사드립니다.

생명 연구소의 미래를 통해