출처 : https://techcrunch.com/2017/12/21/how-to-unmask-ai/?ncid=rss
수백만 명의 사람들이 인공 지능 (AI)을 매일 매일 어떤 형태로 사용합니다 . 대부분은 무의식 중에 합니다. 전 세계 사람들이 정기적으로 사용하는 응용 프로그램을 통해 우리의 손끝에 있습니다.
예를 들어 Google 검색 프롬프트, Facebook 친구 추천, 자동 수정 및 예측 텍스트는 모두 AI 기술을 사용하여 실행됩니다. 그렇기 때문에 AI의 투명성을 높이기위한 글로벌 노력을 시작하고 유지하여 기술이 작동하는 방식을 밝히고 의사 결정을 내리고 건강 관리 및 금융과 같은 산업 분야에서 중요한 응용 프로그램을 수행하는 것이 그 어느 때보 다 중요합니다.
나는 우리 모두가 AI가 법 위에 있으면 안된다는 데 동의 할 수 있다고 생각한다. 그러나 동시에 AI 기술을 적극적으로 규제해서는 안됩니다. 적어도, 새로운 표준과 규제가 소비자를 보호하거나 사실상 진행을 제한하는 데 도움이 될 것인지 여부를 밝히기 위해 철저한 분석이 이루어질 때까지는 아닙니다. 분석은 AI의 현재 응용 프로그램, 새로운 분야에 대한 배포의 잠재적 인 경제적 영향 및 기술에 대한 대중의 인식 평가에 초점을 맞춰야합니다.
동시에 AI를 개발하는 글로벌 기술 커뮤니티의 우리는 감사 기능과 투명성을 공동으로 처리해야합니다. 우리는 많은 사람들 이 알고리즘 수준에서 이해하지 못하는 새로운 AI 기술의 연구 및 개발에 투자해야합니다 . 물론 산업계, 정부 및 학계 이해 관계자 모두 AI가 가장 유용 할 때, 생산성이 향상되는 이유, 그리고 중요한 것은 인간 상호 작용을 알리기 위해 데이터를 수집하는 위치에서 사람들을 이해하는 데 도움이되는 역할을합니다.
AI "블랙 박스"열기
AI 투명성, 지식 및 이해를 확대하는 열쇠는 몇 가지면을 가지고 있습니다. 설명해 줄게.
인공 지능과 상호 작용하는 모든 사람은 채팅 기능이 끝난 사람이 인간이 아니며, 인간도 로봇처럼 행동해서는 안된다는 사실을 알고 있어야합니다. AI 기술을 활용하여 고객 및 직원 상호 작용을 수행하는 회사는 결과 데이터의 상황을 명확히 파악해야합니다. AI 기반 플랫폼 및 시스템과 채팅하는 사람들은 대화 내용을 기록 할 수 있어야하며, 불일치, 문제 또는 확인 필요성이 나타나면 사이트에 로그인해야합니다.
비즈니스 및 엔터프라이즈 어플리케이션을 위해 인공 지능을 구축하는 사람들은 다양한 데이터를 책임감있게 작성하고 소스를 테스트해야합니다. AI가 표준 및 합의 된 테스트 프로토콜을 준수하는지 확인하는 바이어스 탐지 테스트를 도입해야합니다. 특히 엔지니어는 AI가 테스트 랩을 떠나기 전에 다양한 컨텍스트에서 데이터 세트가 사용자와 상호 작용하는 방식을 시뮬레이션해야합니다.
엔지니어는 제품을 테스트하여 사람에게 해를 끼치 지 않도록합니다. 그들은 사용자를 보호하기 위해 유용성, 보안 성, 확장 성 및 안전성에 대한 제품 테스트를 수행하지만, 현재 사회적, 윤리적 또는 정서적으로 인간에게 가할 수있는 해를 테스트하지 않습니다. 왜 우리 업계에서는 바이어스 테스트를 개발주기에 추가하여 AI 애플리케이션의 알고리즘이 편향되지 않고 즉시 또는 전통적으로 사용자에게 명백하지 않은 해를 입히지 않도록해야합니까?
AI 업계는 기업 이사회 및 임원 팀과 함께 자율적으로 윤리 체계를 수립하고 확립해야합니다.
또한 AI 엔지니어는 베스트 프랙티스와 바이어스 제거 발견 사항을 조직 내외부의 동료들과 공유해야합니다. 그들은 그들이 만들고있는 인공 지능과 그것이 사용하는 데이터가 정보를 얻기 위해 그것을 사용하는 사람들의 다양성을 반영하는지 확인해야합니다. 가장 중요한 것은 회사가 AI가 편견을 피하거나 투명성을 제공하지 못하도록하는 기술 또는 코딩 문제가 발생하면 진행을 중단하기 란 어려운 결정을 내릴 수 있어야한다는 것입니다. 기술과 데이터가 다양하고 객관적이며 버그가 없도록 보장함으로써 사람들이 정보에 액세스하려고 할 때 편향되는 문제가 줄어들 것입니다.
AI 업계는 기업 이사회 및 임원 팀과 함께 자율적으로 윤리 체계를 수립하고 확립해야합니다. 여기에는 AI 솔루션을 개발하고 적용하는 조직을 위해 Sage에서 발표 한 윤리적 인 AI 지침 과 같은 원칙의 옵트 인 코드가 필요합니다 . 또한 보안 관련 정보를 실시간으로 공유 할 수 있도록 정부와 기업간에 협력 관계가 수립되어야합니다. 이와 같은 진정한 파트너십을 성취하는 것은 투명성을 대폭 향상시키고 상업 개발, 공공 서비스 및 사회적 선의 접근 방식으로의 전환을 고려한 다른 관할권의 모범이됩니다.
AI를 고려하는 기업은 내부 검토를 수행하여 AI를 적용 할 수있는 위치와 AI 기반 서비스를 구현하기 위해 필요한 교육 인원을 파악해야합니다. AI 준비 기술을 갖춘 사람들이 기술 주도 경력을 쌓을 수 있도록 격려하는 교육 및 인력 가속 프로그램을 만들어야합니다.
투명한 AI를 달성하는 것은 세계적 노력입니다.
근본적으로 기술 커뮤니티는 AI 혁신에 투명성을 적용하기 위해 AI 투명성의 의미와 정의를 정의해야합니다. 우리는 AI를 블랙 박스로 취급하는 것을 중단하고 올바른 경로로 인도 할 수있는 감사 기능과 추적 가능성 문제를 해결해야합니다. AI에 대해 사람들을 교육하고 기술에서 의료, 운송, 보안, 가정 생활에 이르기까지 수많은 유스 케이스를 밝혀야합니다.
현재 AI 투명성과 교육의 부재는 본질적으로이 중요한 기술에 대한 불신을 야기합니다. 우리가이 문제를 산업으로 정복 할 수 있다면 AI와 같은 기술을 통해 정보에 대한 민주화 된 접근을 진정으로 제공 할 수있게 될 것이며 이는 우리를 글로벌 기술 및 사용자 커뮤니티로 묶을 것입니다.
우리가 노력해야 할 보편적 인 투명성은 알고리즘 및 데이터 수준에서 발생해야합니다. 글로벌 AI 커뮤니티는 적절한 테스트, 교육 및 교육을 통해 전적으로 편향을 없애고 편견을 제거하기 위해 협력해야합니다. 그리고 영국 의회의 AI 특별위원회 , NYU의 AI Now Institute 및 MIT Media Lab의 AI 윤리 및 거버넌스 이니셔티브와 같은 주도권 덕분에 투명하고 도덕적 인 인공 지능을 구축하는 데 혼자가 아닙니다 . 할 일이 훨씬 더 많습니다. 그러나 투명한 인공 지능을 얻는 것은 그만한 가치가있을 것입니다.