伊莉討論區

標題: 研究顯示在未知的情況下﹐人類與AI能夠良好合作 [打印本頁]

作者: jiunn36    時間: 2020-3-28 04:05 AM     標題: 研究顯示在未知的情況下﹐人類與AI能夠良好合作

     [attach]130985702[/attach]
  人工智慧(AI)產品可以假裝成人類﹐例如AI生成的語音可以透過電話預訂餐廳﹐或是由聊天機器人在線上回答顧客問題。隨著AI在這方面的能力持續改善﹐人們會越來越常陷入不安﹐得知真相後可能會降低這類產品的效益﹔最近的研究發現﹐在人與機器人的互動上﹐透明與合作難以兩全。
  這項研究利用簡單而巧妙的遊戲﹐讓玩家同時做出一連串決定﹐看是要跟夥伴合作﹐還是背叛對方。從長遠來看﹐雙方持續合作會有好處﹐但背叛的誘因一直存在﹔若背叛對方(犧牲夥伴)﹐短時間內便可以贏得更多分數。研究人員使用一種AI演算法﹐發現當AI假扮為人類時﹐人類比較願意與之合作。但先前研究顯示﹐人類總是不信任機器﹐所以科學家好奇﹐如果機器人揭露自己的身分﹐會發生什麼事﹖
  研究團隊希望人們跟已知是機器人的對象玩遊戲時﹐會願意跟對方合作(而不是看對方好欺負)﹐最終擺脫這份不信任感。美國紐約大學阿布達比分校(New York University in Abu Dhabi)資訊科學家拉萬(Talal Rahwan)﹐是去年11月於《自然·機器智慧》(Nature Machine Intelligence)發表的論文資深作者﹐他說﹔「遺憾的是﹐我們沒有達成這項目標。無論演算法怎麼設定﹐人們始終持有偏見。」機器人公開以機器人的身分玩遊戲﹐人類就是不願意合作﹐即使合作策略明顯對雙方都有好處(在每種模式下﹐機器人都會玩50回合﹐至少與150人共同參與遊戲)。
  在另一項實驗中﹐研究人員告訴玩家﹔「資料顯示﹐如果人們把機器人看成人類﹐遊戲結果會比較好。」但是效果不彰。帶領瑞典于梅奧大學(Umea University)社會與倫理AI小組的迪格納姆(Virginia Dignum)並未參與這項研究﹐她讚揚研究人員探索透明與效率之間的妥協﹐但也希望看到在論文特殊設定以外的實驗。
  這篇論文的作者群表示﹐在公共領域﹐應該徵求人們同意才能隱瞞機器人的身分﹐但也不能每次互動時都徵求同意﹐否則就無法達到隱瞞的目的。為偶一為之的隱瞞徵求全面同意﹐還是會引發道德難題。迪格納姆說﹐人類在跟機器人互動之後﹐應該有權得知對方身分。但她補充﹐如果只是打客服電話問些簡單問題﹐「我只想要得到答案。」。







歡迎光臨 伊莉討論區 (http://a27.eyny.com/) Powered by Discuz!