https://techcrunch.com/2017/10/04/deepmind-now-has-an-ai-ethics-research-unit-we-have-a-few-questions-for-it/?ncid=rss
DeepMind는 Google이 2014 년 에 $ 500M +에 인수 한 영국의 AI 회사로서 '개인 정보, 투명성 및 공평성'및 '경제적 영향 : 포함'과 같은 6 가지 주요 주제에 대한 연구를 수행하는 새로운 윤리 단위를 출범 시켰습니다. 평등 '.
XXVI 그 기업 부모 지난해 매출 약 $ 90BN을 생성 -Alphabet 소유의 회사는 연구와 같은 "개방형 질문에"고려할 것이라고 말했습니다 : "AI 기술의 사용이 증가하고 세련는 기업 권력과 상호 작용하는 방법을"
그것은 "중요한 조언"(DeepMind는 또한 " 동료 " 라고도 함)의 "중요한 조언"에 도움을 주어 " 연구 전략 및 업무 프로그램에 대한 감독, 중요한 피드백 및 지침을 제공하는 데 도움이됩니다"라고 말합니다. 또한 기존 연구 기관이라고 일컬어지는 파트너 그룹이 "가능한 한 광범위한 관점을 포함하기 위해 시간이 지남에 따라"작업 할 것이라고 말했습니다.
자체 기술의 사회적 영향의 윤리를 연구하는 상업적 AI 거물에 대한 거대한 이해 관계의 충돌을 지적하기 위해 학계와 기관의 명부가 필요하지는 않지만,
(한편, 인공 지능에 능통 한 학계의 문제는 어떤 컨설팅 형태 또는 다른 기술 분야에서 이미 하나의 기술 거장에게 붙어 있지 않은데, 우리가 전에 강조한 AI 분야의 또 다른 윤리적 딜레마 이다.)
DeepMind 윤리 연구 부서는 강력한 AI에 대한 기업의 힘에 대한 창립자들의 우려로 인해 DeepMind가 Google 인수 시점에 설립 한 내부 윤리위원회에 추가로 포함됩니다.
그러나 그위원회에 앉아있는 사람들의 이름은 공개되지 않았으며 분명히 지금 공개되지는 않습니다. DeepMind가 AI 윤리 및 투명성을 연구하고자하는 큰 쇼를 열어도. 따라서 기술 대기업이 자신을 둘러싸고있는 것으로 보이는 필터 거품의 내부가 얼마나 대칭인지 궁금해해야합니다.
AI와 테크놀로지 플랫폼의 힘에 관한 한 가지 확실한 사실이 있습니다. 규모의 알고리즘 자동화는 모든 종류의 불쾌한 사회적 결과를 낳고 있습니다. 우리가 자선 사업을 할 경우 인공 지능을 규모에 맞게 최적화 한 결과로 떨어질 수 있습니다 비즈니스 성장. Ergo : '우리는 사회적 책임이 아니라 돈을 벌어'.
그러나 AI 엔지니어가 빠르게 움직이고 깨지기 전에 윤리와 잠재적 인 부정적인 영향 및 영향에 대해 생각하지 않는다면,이 하이퍼 스케일 러블 알고리즘은 문제를 자신의 것으로 식별하지 못한다. 손해. Au contraire . 그들은 피해를 증폭시키고 가속화 시키며 악화시킬 것입니다.
가짜 뉴스를 목격하십시오 . 증인 만연 온라인 남용을 . 누군가가 여론을 타깃으로 조작 하고 사회적으로 분열 된 결과를 저지 하기 위해 지불 할 수있는 감독 의 총체적 부재를 목격하십시오 .
주어진 밝아 정치 및 공공 실현 의 업체가 바로 '그 생각을하지 않았다'때문에 AI가 사회 모든 종류의 문제를 일으킬 수있는 방법 - 따라서 그리고 자신의 플랫폼을 대상으로 해, 다음의 필요성에 대한 의도 기관에 의해 무기화 할 수있다 AI를 둘러싼 서사를 조종 할 수있는 첨단 기술 플랫폼 거인들은 확실히 분명해지고 있습니다. 아니면 그들이 좋아하지 않는 방식으로 규제되는 자신이 좋아하는 도구를 직면하게됩니다.
페니는 '우리는 그 생각을 정말로 생각할 필요가 없다.'고 생각할 필요가있다. 대중과 정책 입안자가 어떻게 생각 하는지를 제어한다.
그리하여 우리는 딥 마인 트 (DeepMind)에 도착하여 윤리 연구 부서를 설립하여 1 년에 인공 지능 관련 연구를 실시 할 것입니다 - 거버넌스 및 책임 성과 같은 비즈니스 관심사에 대해 중대한 우려가있는 분야에 대한 여론 및 정책 입안자에게 영향을 줄 것을 희망합니다 .
런던 NHS 트러스트와 2015 년 데이터 공유 계약을 맺은 회사가 영국의 프라이버시 워치 독에 의해 조사를 이끌어 냈습니다. 이번 여름에 DeepMind의 건강 부서가 일부 영국인 의 의료 기록을 수령 한 후 영국의 개인 정보 보호법 이 붕괴되었다고 판단했습니다. 지식이나 동의없이 1.6M의 사람들.
그리고 지금 DeepMind은 지배 구조와 책임 윤리를 연구하고 싶어? 뒤늦은 녀석들을위한 충분한 표시.
이제 DeepMind의 내부 윤리 연구 부서가 AI를 집중적 인 기업의 손에 집중시키는 모든 사회적 위험을 조사 할 수있는 사려 깊은 논문을 발표 할 수 있습니다.
그러나 AI (필연적으로)가 규제를받는 방식을 결정함에있어서 상업적인 이익이 주어지면 DeepMind 직원이 담당하는 완전 공평한 연구 부서는 상상하기 어려워 보입니다.
"우리는 AI가 세계에 특별한 이익이 될 수 있다고 믿지만, 가장 높은 윤리 기준을 지키기 만하면된다"라고 DeepMind는 조심스럽게 블로그에 글을 올렸습니다.
"기술은 가치 중립적이지 않으며, 기술자는 자신의 업무가 윤리적 및 사회적 영향을 미치도록 책임을 져야합니다."라고 말하면서 계속 말합니다. "AI 기술을 개발하는 과학자로서 우리는 공개 연구를 수행하고 지원할 책임이 있으며 우리 연구의 더 광범위한 함의에 대한 조사. "
핵심 문구는 물론 "열린 연구 및 조사"입니다. 그리고 중요한 질문은 DeepMind 자체가 공개적으로 연구와 조사를 현실적으로 제공 할 수 있는지 여부입니다.
아무도 그 식량 생산자가 수행 한 특정 식품의 놀라운 건강상의 이점에 대해 설문 조사를 신뢰하지 않는 이유가 있습니다.
관련 : 구글은 최근 의견과 정책 결정에 영향을 미치기 위해 수백만 달러를 학술 연구에 투자 한 데 대한 미국의 감시 당국의 지시를 받았다. (그것은 GIF로 요금 을 반박했다 .)
"우리 업무의 엄격함, 투명성 및 사회적 책무성을 보장하기 위해 우리는 펠로우, 다른 학자 및 시민 사회와 함께 일련의 원칙을 개발했습니다. 우리는 이것들과 우리가 확인한 주요 윤리적 난제에 대한 피드백을 환영합니다. 아이디어, 아이디어 또는 기부가 있으면 연락하십시오. "DeepMind가 블로그에 추가했습니다.
윤리 단위 웹 사이트 는 연구를 지원할 5 가지 핵심 원칙을 제시 합니다. 원칙 아래에 붙여 넣은 원리를 복사하여 여러 링크 트리를 통해 사냥을 할 필요가 없으므로 DeepMind는 'Principles'을 기본 페이지의 탭으로 포함하지 않으므로 검색을 통해 실제로 찾아야합니다. 그들을 찾으려면 FAQ 링크를 클릭하십시오.
(페이지를 찾을 수 있다면 페이지 맨 아래에 "우리의 원칙에 대한 모든 피드백을 환영합니다. 결과적으로이 페이지에 새로운 약속을 추가 할 수 있습니다.")
업데이트 : DeepMind 대변인은 윤리 홈페이지에서 스크롤없이 아래로 스크롤하여 원칙을 찾아 낼 수 있음을 지적했습니다.
* 누군가가 정말 DeepMind의 모든 정보를 추출하는 데 걸리는 얼마나 많은 클릭 계산한다 윤리 및 사회 웹 사이트 당, DeepMind 건강 (참과 웹 사이트 디자인 Google 개인 정보 보호 웹 사이트) 작은 조각과 조각들로 텍스트를 자르는 것은 지점한다 관련 정보를 얻기 위해 클릭해야하는 상자 / 부제목에이 정보를 배포하는 것입니다. 투명도? 오히려 나에게 정보가 난독 화되는 것처럼 보입니다.
DeepMind가 윤리 및 사회 웹 사이트에서 여러 링크를 통해 제기 한 원칙은 다음과 같습니다.
사회적 혜택
우리는 AI가 전세계의 사회적 및 환경 적 이익을 위해 개발되어야하며 공정하고 평등 한 사회를 구축 할 수 있어야한다고 생각합니다. 우리의 연구는 AI가 사람들의 삶을 개선하고 권리와 복지를 가장 중요하게 생각하는 데 사용될 수있는 방법에 직접 초점을 맞출 것입니다.엄격하고 근거 중심 인
우리의 기술 연구는 오랫동안 최고 수준의 학업 표준을 준수하며, 우리는 AI가 사회에 미치는 영향을 연구 할 때 이러한 기준을 유지할 것을 약속합니다. 우리는 이러한 기술로 인한 기회와 도전 과제를 탐구하는 지적이고 엄격한 증거 기반 연구를 수행 할 것입니다. 동료 평가의 학문적 전통은 비판적 피드백에 대한 연구를 시작하며 이러한 종류의 작업에 결정적입니다.투명하고 공개적으로
우리는 누구와 협력하고 어떤 프로젝트에 자금을 제공 할 것인가에 대해 항상 열려 있습니다. 연구 보조금은 모두 제한되지 않으며 우리가 위임 한 연구 결과에 영향을 주거나 사전 결정하려고 시도하지 않습니다. 우리가 외부 연구원과 공동 작업을하거나 공동 연구를 진행할 때 우리는 그들이 우리로부터 자금을 수령했는지 여부를 공개 할 것입니다. 윤리 및 사회 팀이 제작 한 출판 된 모든 학술 논문은 개방형 액세스 방식을 통해 제공됩니다.다양성과 학제 성
우리는 다양한 관점을 포함하기 위해 서로 다른 학문 분야를 하나로 모으고, 가능한 가장 광범위한 목소리를 우리의 연구에 포함시키기 위해 노력할 것입니다. AI가 제기 한 질문은 기술 영역을 훨씬 뛰어 넘는 것으로 인식되며, 다양한 전문 지식과 지식을 포함시키려는 의도적 인 노력을 기울이는 경우에만 대답 할 수 있습니다.협력과 포용
우리는 모든 사회에 영향을 줄 수있는 잠재력을 지닌 기술은 모든 사회에 의해 형성되고 책임을 져야한다고 믿습니다. 따라서 우리는 AI에 관한 광범위한 공개 및 학술적 대화를 지원하기 위해 노력하고 있습니다. 우리의 연구자와 이러한 새로운 기술의 영향을받는 사람들 간의 지속적인 협력을 통해 AI는 AI의 이익을 위해 일하도록 노력합니다.
윤리 연구단 출범을 계기로 DeepMind에 제기 한 몇 가지 질문이 있습니다. 우리는 그들이 대답 할 때 응답을 포함 할 것입니다. 업데이트 : 아래 DeepMind의 이탤릭체로 된 응답 :
-
-
DeepMind는 현재 내부 윤리위원회에서 사람들의 이름을 발표 할 예정입니까? 아니면 공개적으로 정보를 보류하고 있습니까?
DeepMind는 이에 대한 응답으로 기록적인 코멘트를 제공하지 않았다. -
이름을 게시하지 않을 경우 왜 안됩니까?
DeepMind는 이에 대한 응답으로 기록적인 코멘트를 제공하지 않았다. -
DeepMind는 상업적으로 이익을 얻고 자하는 기술의 윤리 연구에 자금을 지원하는 데있어 모순점을 발견합니까?
DeepMind 대변인은 "우리는 인공 지능을 구축하는 회사가 자신의 업무에 대한 더 광범위한 영향에 대한 공개 연구와 조사를 수행하고 지원할 책임이 있다고 생각합니다. DeepMind에서 우리는 모든 AI 응용 프로그램이 의미있는 인간 통제하에 있어야하며 사회적으로 유익한 목적으로 사용되어야한다는 전제에서 출발합니다. 실제로 이것이 의미하는 바를 이해하려면 우리가 직면하는 가장 민감한 문제에 대해 엄격한 과학적 탐구가 필요합니다. " -
DeepMind가 자금을 지원받는 연구를 통해 공정성이 어떻게 보장 될 것입니까?
DeepMind 대변인은 "우리는 그들의 전문성, 성실성 및 독립성으로 유명한 독립 휄로우들의 조언을받을 수있어서 다행입니다. 직원, 내부 직원 및 기타 공동 작업자는 가까운 미래에 AI의 실제 영향을 자유롭게 탐구 할 수 있습니다. 그들의 연구가 AI의 잠재적 인 부정적인 결과를 탐구하도록 이끌어 준다면, 그것은 동료 및 독립적 인 연구자로서의 책임하에 있습니다. 비판은 불편할 수 있지만, 개방성 수준은 우리 모두가 이익을 얻을 수있는 진전을 보장 할 수있는 유일한 방법입니다. 우리 업무의 엄격함, 투명성 및 사회적 책임 성을 보장하기 위해 우리는 일련의 공개 원칙을 개발했습니다 우리의 모든 것을 인도하는 우리의 동료, 다른 학자 및 시민 사회와 - 우리는 그들에 대한 피드백을 환영합니다. " -
얼마나 많은 사람들이 유닛에 인력을 배치하고 있습니까? 기존 DeepMind 스태프가 본부에 가입했거나 전혀 새로운 채용 인원이 있습니까?
DeepMind 대변인은 "현재 윤리 및 사회 팀에는 약 8 명이 있으며 다음 해에는 ~ 25 명으로 성장할 계획입니다." -
휄로우들은 어떻게 선정 되었습니까? 공개 신청 절차가 있었습니까?
DeepMind 대변인은 "우리의 초기 휄로우들은 성실하고 학문적 인 프로필이나 업적뿐만 아니라 까다로운 질문에 대한 명성으로 선정되었습니다. 일반적으로 그들은 연구 공동체에서 왔으며 인공 지능 및 사회와의 교차와 관련된 다양한 영역을 전문으로합니다. DeepMind 윤리 및 사회가 성장함에 따라 업무와 방향을 형성하고 결정하는 데 도움이되는 자문 기능을 갖추고 있습니다. 미래에는 우리와 함께 일하고 싶은 사람들과 조직의 연구 및 기타 파트너십에 대한 제안을 받아 들일 것입니다. " -
윤리 단위가 수행하는 모든 연구 결과를 게시 할 예정입니까? 그렇지 않은 경우, 어떤 연구가 발표되고 게시되지 않는지 어떻게 선택합니까? 1 년에 몇 편의 연구를 발표 할 예정입니까? 6 가지 주요 연구 주제에 걸쳐 동등하게 발표 할 의사가 있습니까? 그리고 그 단위에 의해 발표 된 모든 연구가 먼저 동료들에 의해 검토 될 것입니까?
DeepMind 대변인은 "모든 연구와 마찬가지로, 특히 초기에는 말하기가 어렵습니다. 그러나 우리는 내년 초에 논문을 출판하기를 희망하며, 윤리 및 사회 팀이 작성한 논문은 공개 접근 방식을 통해 공개 될 예정입니다. 일반적으로 우리는 동료 평가의 학문적 전통을 크게 믿습니다. 6 가지 '연구 주제'에 포함 된 주제는 DMES 펠로우와 학계의 연구 범위에 포함되며, 여기에서 파악한 범위를 벗어날 수있는 프로젝트에 대한 아이디어와 제안도 열려 있습니다. 이것은 급속도로 진화하는 분야이며 우리는이 단계에서 연구 할 가치가있는 모든 것을 기대하지 못했을 것임을 깨닫습니다. " -
연구 자금 조달을위한 유닛의 예산은 얼마입니까? 이 예산은 전적으로 알파벳에서 오는 것입니까? 다른 재정 지원자가 있습니까?
DeepMind 대변인은 "우리는 단지 시작하기에 불과하므로 번호를 기입하기에는 너무 이르다. 우리는 외부 기관으로부터 기부금을 내고 있지 않습니다. "
-
DeepMind는 현재 내부 윤리위원회에서 사람들의 이름을 발표 할 예정입니까? 아니면 공개적으로 정보를 보류하고 있습니까?