为什么人工智能原则在谷歌内部如此重要

   2020-02-10 工业品商城210
核心提示:皮查伊写道:人工智能的开发和使用将在未来很多年对社会产生重大影响。作为人工智能领域的,我们深感责任重大。   这种对人工智能的新立场的催化剂受到了谷歌做错事的例子的影响。除了大猩猩事件,哈佛大学研究人员Latanya Sweeney在谷歌搜索中也发现了种族歧视的例子。当你搜索听起来像黑人的名字时,与逮捕相关的消息
      皮查伊写道:“人工智能的开发和使用将在未来很多年对社会产生重大影响。作为人工智能领域的,我们深感责任重大。”   这种对人工智能的新立场的催化剂受到了谷歌做错事的例子的影响。除了大猩猩事件,哈佛大学研究人员Latanya Sweeney在谷歌搜索中也发现了种族歧视的例子。当你搜索听起来像黑人的名字时,与逮捕相关的消息比搜索听起来像白人的名字时更容易出现。
Gennai解释说:“这两起事件都是我们的错误导致,我们不应该让我们的用户看到这些,我们需要从一开始就阻止它们发生。”
现在,每当谷歌推出一款新产品时,Gennai及其团队都会对其进行严格的测试。会让来自技术、法律、隐私和社会科学等领域的专家聚在一起,根据谷歌的AI原则分析每种产品。   这个测试主要关注产品的优点和缺点。“我们不是扮演找谷歌麻烦的警察角色,”Gennai说。“我们就像,我希望你能推出好的产品,所以我要找出所有可能出现问题的漏洞,这样你就能修复它们。”
以Duplex为例,谷歌助手可以代表你打电话进行预约,在今年早些时候的I/O大会上发布这项技术之前,有几个伦理问题需要考虑。   在这个例子中,团队在人工智能如何处理不同口音上做了很多工作,但是 Gennai的团队提出了一些其他的问题。
她解释:“我们研究了我们的用户将如何与它互动,(这项技术)将如何减轻偏见。我们问,你怎么知道一个口吃或语言障碍的人会和一个没有口吃或语言障碍的人一样受到欢迎呢?   “团队做了很多工作,但我们在努力缩小差距,并改善它的性能。”  
改进偏差的一种方法是改进数据集。Gennai用婚礼的例子来说明这一点。
过去,如果你在谷歌上搜索婚礼图片,你会看到穿着婚纱的白人的照片,因为这个算法是在西方驱动的数据源上训练出来的。然而,这并不适用于谷歌在印度或中国的用户。   
      谷歌寻求人们提交世界各地的婚礼照片以改进数据集。
她解释说:“现在,我们从印度用户那里获得了很多信息,尤其是他们给我们发送了那么多色彩斑斓、很棒的结婚照。”
“我们想要了解我们现有的信息来源存在多大的偏见,并创建一些偏见更小的新信息来源。”  
了解谷歌的算法是如何在内部工作的,有助于谷歌的团队做出更好的改变。有一个例子是谷歌搜索CEO的问题——当你在搜索栏中输入CEO的时候,你会看到穿西装的白人和芭比娃娃的图片,尽管不是同一张图片。
当 Gennai的团队研究这些数据时,发现并不是人类的偏见造成的,而是技术上的偏见。
“这个算法已经知道,深蓝色像素等同于CEO,而且因为白人男性更可能穿海军蓝西装,这纯粹是模型学习的方式导致的。”但(这表明)你需要仔细审查和检查你的数据,”她表示。   谷歌用户了解公司算法的工作原理也很重要。作为谷歌用户,您现在可以检查为什么要向您提供广告,并查看算法做出的决策。您还可以检查在谷歌搜索上为什么可以看到某个链接,这取决于您以前的搜索历史。Gennai说,这是为了帮助用户更多地了解谷歌,以便他们能够信任这个平台。
Gennai说:“与用户共享完整的算法毫无用处——它可能会造成更多的混乱,让人觉得我们是在故意混淆视听。(但)用可读性强的语言进行解释,将有助于人们理解谷歌的意图,即使我们做错了。”  
说到底,偏见的问题在于它来自于人类。“我们都有可怕的偏见,”Gennai说。“我们都有自己的偏见,我们现有的所有数据来源都建立在我们面前的每个人以及他们的偏见历史之上。”   但是,仅仅因为我们可以把算法的所有错误都归咎于人类,并不意味着我们不能阻止它。相反,谷歌试图调查和解释偏见的大来源,并试图改变它们。
 
 
 
更多>同类新闻资讯
推荐图文
推荐新闻资讯
点击排行

新手指南
采购商服务
供应商服务
交易安全
关注我们
手机网站:
新浪微博:
微信关注:

周一至周五 9:00-18:00
(其他时间联系在线客服)

24小时在线客服