메인 머리말 누구나 인공 지능에 대해 물어봐야하는 불편한 질문 16 가지

누구나 인공 지능에 대해 물어봐야하는 불편한 질문 16 가지

내일의 별자리

미국과 중국의 거대 기술 기업은 전 세계적으로 인공 지능의 대부분의 발전을 뒷받침하고 있습니다. 그녀의 새 책에서 The Big Nine : Tech Titans와 그들의 사고 기계가 인류를 왜곡시킬 수있는 방법 (PublicAffairs, 3 월 5 일) Amy Webb은 A.I의 개발을 제어하기 위해 우리가 취하거나 취하지 않는 조치로 인해 발생할 수있는 낙관적 인 것에서 묵시적인 것까지 세 가지 가능한 미래를 상상합니다. 글로벌 영향력을 형성합니다. 이 발췌문에서 그녀는 인간이 인공 지능을 구축하는 일련의 어려운 윤리적 질문을 제시합니다. 시스템은 작업을 안내하는 데 사용해야합니다.

모든 문화, 사회, 국가가 살아 왔고 지금까지 살아온 규칙 (알고리즘)은 항상 소수의 사람들에 의해 만들어졌습니다. 민주주의, 공산주의, 사회주의, 종교, 완전 채식, 자연주의, 식민주의-이것들은 우리가 결정을 내리는 데 도움을주기 위해 우리가 역사를 통해 개발해온 구조입니다. 최상의 경우에도 미래를 보장 할 수 없습니다. 기술적, 사회적, 경제적 세력이 항상 개입하여 우리가 적응하도록합니다.

십계명은 5,000 년 전에 살아있는 인간을위한 더 나은 사회를 만들기위한 알고리즘을 구성합니다. 계명 중 하나는 일주일에 하루 종일 쉬고 그날에는 아무 일도하지 말라는 것입니다. 현대에서는 대부분의 사람들이 매주 똑같은 요일이나 시간을 일하지 않기 때문에 규칙을 어 기지 않는 것은 불가능합니다. 결과적으로 십계명을지도 원리로 따르는 사람들은 더 긴 근무일, 축구 연습 및 이메일의 현실을 감안할 때 유연하게 해석 할 수 있습니다. 적응은 괜찮습니다. 그것은 우리와 우리 사회에 정말 잘 작동하여 우리가 궤도를 유지하도록합니다. 기본적인 지침에 동의하면 스스로 최적화 할 수 있습니다.

조시 블레이록과 조한나 브래디 이혼

AI를위한 계명을 만들 수있는 방법은 없습니다. 우리는 인류를 위해 올바르게 최적화하기위한 모든 규칙을 작성할 수 없었습니다. 그것은 생각하는 기계가 빠르고 강력 할 수 있지만 유연성이 부족하기 때문입니다. 예외를 시뮬레이션하거나 모든 단일 우발 상황을 미리 시도하고 생각하는 쉬운 방법은 없습니다. 어떤 규칙이 작성 되든 미래에는 어떤 사람들이 규칙을 다르게 해석하거나 완전히 무시하거나 예기치 않은 상황을 관리하기 위해 수정을 원할 수있는 상황이 항상있을 것입니다.

우리가 따라야 할 엄격한 계명을 작성할 수 없다는 것을 알고있는 대신 시스템을 구축하는 인간에게주의를 집중해야합니까? 이 사람들 (A.I.의 부족)은 다음과 같이 자신에게 불편한 질문을해야합니다.

피트 데이비슨은 어떤 민족인가
  • A.I.에 대한 우리의 동기는 무엇입니까? 인류의 장기적인 이익과 일치 하는가?
  • 우리 자신의 편견은 무엇입니까? 부족에 포함하지 못한 아이디어, 경험 및 가치는 무엇입니까? 우리는 누구를 간과 했습니까?
  • AI의 미래를 만들기 위해 우리 자신과 다른 사람들을 포함 시켰습니까? 아니면 특정 할당량을 충족하기 위해 팀에 다양성을 포함 시켰습니까?
  • 우리의 행동이 포용적임을 어떻게 확신 할 수 있습니까?
  • A.I.의 기술적, 경제적, 사회적 영향은 어떻습니까? 창조에 관련된 사람들이 이해하고 있습니까?
  • 우리를 대신하여 결정을 내리는 데 사용되는 데이터 세트, 알고리즘 및 프로세스를 조사하려면 어떤 기본 권한이 있어야합니까?
  • 누가 인간 생명의 가치를 정의 할 수 있습니까? 그 가치가 무엇에 대해 평가되고 있습니까?
  • A.I. 부족의 사람들은 A.I.의 사회적 의미를 다루는 것이 자신의 책임이라고 생각하는시기와 이유는 무엇입니까?
  • 우리 조직과 A.I. 부족은 다양한 종류의 사람들을 반영합니까?
  • AI를 상용화하는 사람들은 어떤 역할을합니까? A.I.의 사회적 의미를 다루는 데있어
  • A.I.를 계속 비교해야합니다. 아니면 다른 것으로 분류하는 것이 더 낫습니까?
  • AI를 구축해도 괜찮습니까? 인간의 감정을 인식하고 반응 하는가?
  • AI를 만들어도 되나요? 인간의 감정을 모방 할 수있는 시스템, 특히 우리로부터 실시간으로 학습하는 경우?
  • A.I에 대해 우리 모두가 괜찮은 지점은 무엇입니까? 인간없이 직접적으로 진화하고 있습니까?
  • 어떤 상황에서 A.I. 인간의 일반적인 감정을 시뮬레이션하고 경험합니까? 고통, 상실, 외로움은 어떻습니까? 우리는 그 고통을 일으키는 것이 괜찮습니까?
  • 우리는 인공 지능을 개발하고 있습니까? 우리 자신에 대한 더 깊은 이해를 구하기 위해? A.I를 사용할 수 있습니까? 인류가 더 검토 된 삶을 살 수 있도록

인공 지능의 미래에 대해 압도적 인 책임을지고있는 9 개의 대기업 (미국 6 개, 중국 3 개)이 있습니다. 미국에서는 Google, Microsoft, Amazon, Facebook, IBM 및 Apple ( 'G-MAFIA')입니다. 중국에서는 Baidu, Alibaba 및 Tencent가 BAT입니다.

G-MAFIA는 다양한 연구 및 연구 그룹을 통해 원칙지도 문제를 해결하기 시작했습니다. Microsoft 내에는 A.I의 공정성, 책임 성, 투명성 및 윤리를위한 FATE라는 팀이 있습니다. Cambridge Analytica 스캔들의 여파로 Facebook은 A.I. 시스템은 편견을 피했습니다. (특히 페이스 북은 인공 지능에 초점을 맞춘 윤리 게시판을 만들지 않았습니다.) DeepMind는 윤리 및 사회 팀을 만들었습니다. IBM은 윤리 및 AI에 대해 정기적으로 게시합니다. 검색 엔진 인 Baidu의 스캔들 (검색 엔진이 군 병원의 오해의 소지가있는 의료 청구에 우선 순위를두고 치료로 인해 21 세 학생이 사망 한 경우) 이후 Baidu CEO Robin Li는 직원들이 Baidu의 수익 성장을 위해 타협하고 미래에 윤리에 집중할 것을 약속했습니다.

알렉스 맥카더에게 무슨 일이 일어났든

Big Nine은 윤리 연구와 백서를 제작하고, 전문가를 모아 윤리에 대해 논의하고, 윤리에 관한 패널을 주최합니다. 그러나 그 노력은 AI를 작업하는 다양한 팀의 일상적인 운영과 충분히 얽혀 있지 않습니다.

빅 나인의 인공 지능 시스템은 상업적 가치를 보여주는 제품을 구축하기 위해 점점 더 실제 데이터에 액세스하고 있습니다. 투자자의 기대에 부응하기 위해 개발주기가 빨라지고 있습니다. 우리는 모든 질문에 먼저 대답하지 않고 서둘러 생성되는 미래에 참여할 의사가 있습니다. A.I. 시스템이 발전하고 일상 생활의 더 많은 부분이 자동화 될수록 우리가 우리를 위해 내리는 결정에 대한 통제력이 줄어 듭니다.

Amy Webb은 Inc. 파운더 스 하우스 3 월 11 일 오스틴에서