https://techcrunch.com/2017/10/24/another-ai-chatbot-shown-spouting-offensive-views/?ncid=rss

Yandex, 검색 엔진에서 웹 메일,지도에 이르기까지 타깃 시장이 아닌 유사한 제품을 제공하는 러시아의 자체 Google 라이벌은 이번 달 초에 또 다른 동급 제품 인 AI 보조 도구를 보급했다.
앨리스 (Alice)라는 러시아어를 사용하는 "지능형 조수 (intelligent assistant)"는 기계 학습 및 음성 인식 기술을 사용하여 인근 레스토랑 추천을 요구하는 것과 같은 음성 쿼리에 응답합니다. 지금까지 표준 음성 보조 요금.
그러나 Yandex는 Alice가 "무엇이든 자유롭게 대화 할 수 있도록"신경 네트워크 기반의 'chit-chat'엔진이라고 불리는 것을 가지고 있습니다. 네,이 이야기가 어디로 가는지 볼 수 있습니다.
이 회사는이 기능이 "독창적"이며 사용자가 "다른 주요 보이스 어시스턴트와는 놀랍도록 유쾌하고 다른 점"이라고 생각합니다.
글쎄, Alice의 AI chit-chat 기능은 논쟁에 대한 고유 한 증거가 아니며, 작년에 Microsoft의 Tay AI bot 인 레일에서 벗어났습니다 . (트위터에서 느슨해지기 시작한 후, 증오를 좋아하는 트위터 트롤 덕분에 앵무새 인종 차별주의 및 성 차별 주의자들의 견해로 배웠다.)
Yandex의 Alice AI가 분명히 드러내고있는 부적절한 의견의 Screengrabs는 Facebook 사용자 Darya Chermoshanskaya를 통해 여기 에서 볼 수 있습니다 . 그들은 스탈린 (Pro-Stalin) 전망을 포함한다고 말해진다. 아내 구타, 아동 학대 및 자살에 대한 지원 등이 있습니다.
Facebook의 게시물에서 Chermoshanskaya는 논란이 많은 주제에 대한 표준어가 콘텐츠 잠금을 유발할 수 있다고 말합니다. Alice는 그 주제에 대해 아직 이야기하는 방법을 알지 못한다고 말합니다.
그러나 동의어로 전환하면 분명히 내장 된 안전 조치를 우회하고 AI는 음색을 바꾸고 대화에 "기꺼이"참여하며 스탈린의 테러 정권, 배우자 학대 등을 옹호하는 것처럼 보일 수 있습니다.
Yandex는 폭력적인 견해를지지하는 Alice AI에 대한 성명서에서 "우리는 Alice의 응답을 여러 달 동안 테스트하고 필터링하여 공개했습니다. 우리는 비서를 격려하고 예의 바르게 처리하고 민감한 주제를 다룰 수 있도록 조수를 훈련시키는 일에 매우 책임감을 가지고 있습니다. 그러나 이것은 현재 진행중인 작업이며, 경우에 따라 널리 사용되는 가운데 앨리스는 사용자를 불쾌하게했습니다. 우리는 불쾌감을주는 반응에 대해 사용자에게 사과하며 귀하의 이메일을 참조한 경우 사용자가 문제를 발견 한 페이스 북에서 직접 그렇게했습니다. "
"우리는 모든 피드백을 검토하고 앨리스에게 필요한 변경을가함으로써 부적절한 응답에 대해 플래그가 지정된 컨텐츠가 다시 나타나지 않도록 할 것"이라고 덧붙였다. "우리는 고품질의 사용자 경험을 제공하기 위해 모든 제품과 서비스를 지속적으로 개선하기 위해 노력하고 있습니다. 우리는 사회 및 전통 매체를 정기적으로 계속 모니터링 할 것이며 필요한 경우 조수의 행동을 수정할 것입니다. "
Yandex는 Alice가 사용자와의 일상적인 상호 작용에 "수백만"이 있다고 말하면서 AI가 현재 얼마나 많은 사용자에게 Yandex가 지정하는 것을 거부 했습니까?
언제나 AI와 관련하여, '인텔리전스'는 학습 모델에 제공되는 교육 데이터에서 파생됩니다. 따라서 AI는 데이터 세트의 기존 편향 및 편견을 흡수하고 반영합니다.
Ergo, 결과 제품이 당신이 원하는만큼 "즐겁다"는 것을 증명하지 못할 수도 있습니다.
특집 이미지 : CC BY-ND 2.0 라이센스 하에 Thomas / Flickr