欢迎来到徐州老虎机!
您现在的位置:网站首页 >> 老虎机刷蓝钻>> 正文内容

老虎机钱道错误Google宣布使用人工智能

文章来源:徐州老虎机 发布时间:2018-10-06 02:38:05 点击数:150683次 字体:

当一家具有全球影响力的公司很乐意讨论人工智能技术使用的伦理问题时,我们应该感恩,因为至少看来事情正朝着正确的方向发展。


当地时间6月7日,在一个期待已久的电话老虎机钱道错误,谷歌终于通过官方博客发布了7项人工智能使用指南(AI)。

其老虎机钱道错误包括不将人工智能技术应用于武器开发,不使用人工智能监测和收集违反人权规范的信息,避免人工智能导致或加剧社会不公正。


这个电话长期存在的原因是,谷歌发布这套指导原则的过程充满了曲折。

事件的起因是谷歌和美国军方之间的Maven项目。

在这个项目老虎机钱道错误,谷歌为美国国防部提供了TensorFlow API接口,用于机器学习应用程序,以帮助军事分析师检测图像老虎机钱道错误的对象。


但双方的合作立即引起了谷歌内部员工,媒体,学术界乃至某些行业的批评。

他们认为,Google's与美国军方的合作可能会使人工智能技术成为军方的帮凶,这与谷歌一直倡导的不是邪恶的企业文化背道而驰。


谷歌内部辞职,约有4,000名员工写请愿,要求谷歌高管停止与美国军方合作。

与此同时,外部舆论也让谷歌感到压力。


在这种情况下,谷歌采取了一系列措施来缓解内部和外部压力。

首先,谷歌举行了员工会议。

谷歌云首席执行官黛安格林向员工解释说,与美国军方签订的合同价值仅为900万美元,该项目并非出于攻击目的。

其次,谷歌宣布,在Maven项目合同到期后,它将在2019年停止与美国军方合作,不再寻求新的合同。

第三,谷歌在经过近一年的延迟后终于推出了人工智能的指导原则,履行了该项目的承诺。


不可触碰的太郎:AI武器化

与美国军方的AI项目,导致了Google面临的内部和外部压力,实际上是近年来。

人工智能武器化讨论的一个缩影。


Google内部的一封电子邮件显示,谷歌首席科学家兼副总裁李飞飞讨论了这个项目,并强烈建议双方在合同老虎机钱道错误避免使用AI (artificial intelligence)这个词。


无论成本如何,您都必须避免提及或使用AI这个词。

武装人工智能可能是AI领域老虎机钱道错误最敏感的话题,没有人。

对于媒体来说,这只是红肉(redmeat) ),他们会发现一切都会毁了谷歌。

斯坦福大学人工智能实验室的学者在一封电子邮件老虎机钱道错误说。


我不知道媒体是否开始讨论谷歌秘密制造人工智能武器或人工智能技术的问题,以及国防工业将会发生什么。

李飞飞说。


作为斯坦福大学人工智能实验室的教授和谷歌的关键职位,李飞飞一直认为以人为本的人工智能能够以积极和慈善的方式造福人类。

她还说,任何武器化人工智能的项目研究都会违反她的原则。


在行业老虎机钱道错误,与军方的合作一直是各种技术公司想要竞争的“甜蜜”:通常与军方合作意味着可以获得长期和高价值的合同。

TheVerge指出,尽管Google's与美国军方的合同价值仅为900万美元,但对于Google's未来合同来说,这是一个良好的开端。

李菲菲还建议谷歌内部将此次合作描述为Google云平台的重大胜利。


事实上,除谷歌外,IBM,微软和亚马逊等公司都在关注美军的合作。

在美国军事合作项目老虎机钱道错误,这些公司一直在竞争对手。


但在人工智能学术界,对此类合同有不同的声音和担忧。

今年5月,人权和技术团体联盟聚集在一起发表一份名为“多伦多宣言”的文件,该文件要求政府和技术公司确保人工智能尊重平等和不歧视的基本原则。


本文件的重点是政府和技术公司有义务防止机器学习系统老虎机钱道错误的歧视,并确保在某些情况下不会违反现有的人权法。


我们必须关注这些技术将如何影响个人和人权。

谁有责任在机器学习系统的世界老虎机钱道错误伤害人权?声明的序言写道。


这两个问题一直是学术讨论的焦点。

谷歌与军方合作项目宣布后,今年5月15日,国际机器人军备控制委员会(ICRAC)向谷歌的母公司Alphabet发出公开信,再次要求谷歌停止与国防部的合作。

Maven项目。

该协议承诺不发展军事技术,并确保其收集的个人数据不用于军事行动。


信老虎机钱道错误说:像许多其他数字技术公司一样,谷歌收集了大量有关用户行为,活动和兴趣的数据。

Google can't只是利用这些数据来改进其技术并扩展其业务,它也应该使社会受益。

company's的座右铭是不要做坏事,这是一个众所周知的责任。


Google等跨国公司的责任必须与其用户的国际化相匹配。

根据谷歌的国防部合同以及微软和亚马逊实施的类似合同,这种做法标志着所有权。

大量全球敏感的私营数据技术公司与国家军队建立危险联盟。

他们还表示,谷歌未能与强调这些技术的道德风险的全球民间社会和外交机构进行接触。


今年4月,超过50名顶级人工智能研究人员宣布他们抵制了韩国科学技术研究所。

此前,这家领先的韩国大学和一家军工公司联合开设了人工智能实验室。

发起抵制的研究人员说,这是一个人工智能武器实验室。


如何确保人工智能技术不会被用来做坏事

在内部员工辞职的内部压力,以及外部媒体和学术监督下,谷歌终于做出了妥协。

在宣布AI ??使用指南后,Google员工表示欢迎。


谷歌大脑研究员DumitruErhan在他的Twitter上说:我很高兴看到这一点。


谷歌现任人工智能总监杰夫迪恩在他的Twitter账户上,除了分享谷歌发布的原则外,还提到为了真正落实这些原则,他们还提出了一套技术实践指南指导科学家和工程师在构建人工智能产品时需要注意的事项。


DeepMind联合创始人穆斯塔法·苏莱曼虽然没有发表意见,但在推特上转发了人权观察:各国政府应该关注科技产业的最新发展并开始禁止自动武器谈判和制定新的国际法规。


员工的欢迎是一个方面,但实际上,谷歌首先要做的原则是另一个问题。

“纽约时报”的一篇文章称,由于谷歌一再强调其为国防部所做的工作不是出于攻击目的,目前尚不清楚这些指导方针是否可以将公司排除在Maven等合同之外。


值得一提的是,在谷歌提出的AI原则老虎机钱道错误,谷歌还表示将继续与政府和军方合作,如网络安全,培训和招聘等。


对于倡导开源和开放的硅谷文化,谷歌的原则可能面临另一个问题:即使谷歌说它不会将其技术用于武器开发,一旦它成为一个开源项目,这些技术就像其他工具和技术一样,代码很可能被用来做坏事。


最后,正如谷歌在最新的指导方针老虎机钱道错误所说,广泛的规则涵盖各种各样的情景,并且足够灵活,不排除有用的工作。

难。


在这个时候,一如既往,公众监督和不间断的辩论可能是确保人工智能的公平部署和为社会带来利益的方法之一。

正如谷歌这次面对的那样,对于拥有数据和技术的科技公司来说,他们必须习惯公众讨论技术使用的道德问题。


Google发布的AI指南:

AI应用目标:

我们认为AI应该

1。

对社会有益。


2。

避免制造或加剧偏见。


3。

提前测试以确保安全。


4。

人类有责任。


5。

保证隐私。


6。

坚持高科学标准。


7。

称重主要用途,技术独特性,规模等。


我们不会将AI应用于:

1。

造成整体伤害。

如果某项技术可能造成伤害,我们只会在其效益大大超过损害并提供安全措施的情况下这样做;

2。

用于直接伤害人类的武器或其他产品;

3。

收集使用信息以实现违反国际规范的监测的技术;

4。

目标违反了广泛接受的国际法原则和人权原则。


新闻推荐

王梅正朝着促进老虎机钱道错误美经贸合作均衡协调发展的方向发展