必威登录网站_西汉姆联必威

必威登录网站已成为一流的线上娱乐城,西汉姆联必威演绎了世界之中的各种生灵的使命与追求,因为目前很多玩家都还在排队等着进行betway必威官网备用下载,点击进入官网。

必威登录网站英国顶尖科学家敦促政府规范人工

2019-10-31 作者:数据解读   |   浏览(65)

原标题:英国顶尖科学家敦促政府规范人工智能

划重点:

必威登录网站 1

1、赫拉利认为,AI 带来的不仅是科学挑战,还是哲学挑战;当AI 和生物科技结合,它将具备黑入人类大脑的能力。

据多份报告称,英国科学协会新任主席,英国领先的科学家之一Jim Al-Khalili教授希望政府开始监管人工智能(AI)。

2、李飞飞坚信:AI 也正在解决一些以往没法解决的社会挑战和问题;并且决策不透明的挑战是有望被“可解释AI” 解决的。

由于计算技术的进步以及可用于训练算法的数据集的可用性增加,AI在人工智能冬季长期过去几年中已经复苏。但最先进的AI代理人仍然无法与六岁的智力竞争。他们可以在某些任务中表现出色,但他们无法在高级别执行多项任务。

3、AI 领域和其它人文领域需要有更多的对话和碰撞,建立机制,让AI 科学家和社会学家、心理学家、哲学家一起工作。

有些人认为,在发展过程中尽早调节AI可能会阻碍突破。但是当我问Al-Khalili是否现在开始调节人工智能时还为时过早时,他说:“不,不是太早。”Al-Khalili尚未说明他认为AI应该如何受到监管。

《人类简史》、《未来简史》这两本书,不少人都听说过吧?

据《卫报》报道,Al-Khalili本周在伦敦举行的一次活动中说:“法规必须到位,而且可能来得太晚。” “至少,这将导致该技术不能充分发挥其在公共部门的潜力,可能导致社会不平等的加剧。”

必威登录网站 2

《电讯报》援引物理学家的话说:“直到几年前我才被问到我们对未来的最紧迫和最重要的对话是什么,我可能会说气候变化或其他重大挑战之一面对人类,如恐怖主义,抗菌素耐药性,流行病威胁或世界贫困。

硅谷时间4月22日晚,在斯坦福可容纳约2000人的超级大演讲厅,以这两本畅销书享誉全球的以色列著名历史学家尤瓦尔•赫拉利(Yuval Noah Harari),与斯坦福一个多月前神秘成立的“以人为本” AI研究院领导者李飞飞,展开了一场以人工智能为主题的对话。

“但今天我确信我们应该谈到的最重要的对话是人工智能的未来。 它将主导所有这些其他问题的好坏。 如果俄罗斯网络黑客能够干涉2016年美国大选,那么什么阻止网络恐怖分子入侵任何未来的人工控制电网,运输系统,军事设施银行。 我们的政府有责任保护社会免受潜在的威胁和风险。“

必威登录网站 3

作为回应,普华永道英国公司人工智能主管Rob McCargow表示:“我怀疑在我们努力建立公众意识和信任技术和数据使用的时候,这可能被视为有点夸张。”

(活动现场:左为赫拉利,中为李飞飞,图自赫拉利Twitter)

作为人工智能领域的全球领导者之一,英国已经建立了全球声誉,部分归功于人工智能研究实验室DeepMind的存在,该实验室于2014年被谷歌以4亿英镑的价格收购。

对话现场有多火爆呢?

来源:)

硅谷洞察的特约记者在开场前90 分钟来到现场,发现演讲厅外面已排起了千米长队,还是两列队伍:一列提前订票的“坐票”,一列临时来听的“站票”。要知道,硅谷每天大小演讲无数,一场演讲能吸引200 人来就算很不错了,如此火爆的演讲几乎史无前例... 这气势,根本就是演讲届的《复联4》!

责任编辑:

必威登录网站 4

(现场图。Photo credit:微子)

与赫拉利对AI 的警惕与担忧不同,李飞飞对AI 的发展可谓乐观不少。在这场讨论上,两位大咖针锋相对、各抒己见,都聊了些啥?硅谷洞察这就带你去一探究竟!

(以下对话整理自现场,略有删减)

如果AI 生物科技入侵你的大脑,你还是你吗?

赫拉利用他在2018 年出版的新书《21世纪的21堂课(21 lessons for the 21st century)》中提出的一个观点开场。

赫拉利:AI带来的不仅是一场科技挑战,还是一个哲学挑战。当AI 和生物科技结合起来后,它就会具备‘黑掉’ 人类大脑的能力。这也就意味着,我们现在所谓的“自由意志”、“独立思考”、“民主决策” 等,都将在机器的算法前分崩离析。几千年来,哲学家们讨论的诸多生存问题,会在工程师们调教出来的算法面前彻底变形。

具体点说,现在的人工智能建立在大量数据之上,一个AI 算法已经能够比我们单个人脑做出更好的决策,比我们自己还了解自己。它准确知道我们喜欢什么、想买什么。它不仅能算出我们申请哪份工作更合适、怎样的投资理财最适合我们,甚至还能算出来跟谁约会更可能修成正果!

必威登录网站 5

(《21世纪的21堂课》现场签售火热。Photo credit:微子)

当算法可以做出比我更好的决定之际,再跟生物学研究结合起来,它当然就可以黑入我的大脑,在我不知不觉之际,悄无声息地背叛我,尤其是目前我们在数据隐私、安全和伦理上还存在这么多问题,这不是非常危险吗?

李飞飞:首先,人工智能的诞生就是从机器的算法与生物学,确切的说是脑神经学的对话和融合开始的。尤其是机器学习,它就是从模拟大脑的神经网络的。

其次,人工智能和生物医疗的融合目前在应用层面上已经产生了非常积极的作用,尤其是在医药和诊断等改善人们的医疗健康领域,两者深入融合将更多的造福人类。

此外,AI目前的发展带来的伦理、隐私和工作等多个社会问题已经被纳入了科学研究的视野和范围。斯坦福“以人为本”AI研究院应对这些挑战的一个解决方案是,重构我们下一代人工智能教育,尤其是我们将社会学家、心理学家、哲学家和AI科学家等多个领域的科学家们放到一起来研究,就是为了能更好的处理这些问题。

AI 眼里的爱情,和一场流感又有什么区别?

“爱” 这个永恒的话题,从石器时代被人类一直讨论到今天,AI 时代也不例外。你害怕AI 会黑入你的大脑,控制和操纵你的一切意志,那么,爱难道也可以被“黑” 吗?

这就要从“爱” 的定义谈起。

赫拉利:那要看你怎么定义“爱” 。你觉得AI 会爱吗?拥有意识吗?难道说,非人类的组织器官就无法识别和表达爱吗?

必威登录网站 6

(图自网络,版权属于原作者)

对AI 来说,黑入爱、黑入意识的门槛可能是非常低的。如果你说的是爱情,从生物学的角度看,爱情的产生也不过是一连串的身体内的生物化学反应,荷尔蒙会变化,情绪和心跳会变化,使用的语言和动作会变化。如果机器的算法解码了爱情的这条生物化学反应链条,那么所谓的“爱情”跟一场流感有什么区别吗?

李飞飞:你这个结论里面有两个假设,第一,你假设我们现在的人工智能是如此之强大,强大到不可思议。它不仅能预测和判断我们的金融消费行为,还能预测到人类的爱和意识这个层次。这种AI 离我们这个时代还很远、很远…… 我不知道我们还需要多少代人才能实现。

第二,你假设只有AI 这种技术在未来一家独大,强大到凌驾于一切。事实上,过去,现在和未来,都有很多种其他科技和AI同时发展,有的技术甚至比AI还要强大。

所有的技术都有这样的双刃剑,落入坏人之手,就将危险人类社会和文明,这种例子在其他科技领域过去发生过,以后也可能会发生,AI 也不例外,它可能误入坏人之手的负面影响不该被单独夸大。最重要的是,在应对AI 的发展和可能的负面影响时,我们要把其他科技领域的玩家都一起带进来看,一起来面对和解决,因为它们也会在塑造我们的未来里扮演重要角色。

AI 会把你“卖” 给广告公司吗?

赫拉利:另一个很重要的问题是,现在的AI 并不透明,我们常常在不经意间就给了AI 大量关于我们自己的数据,而且我们也不知道它到底在对我们做什么。如果AI 比我自己更了解自己,但它不跟我分享信息,而是跟广告商、大公司、政府组织联合来利用我,怎么办?

比如我现在去银行贷款,银行会通过一个非常复杂的、涉及几千个数据处理的软件系统,来决定能不能借给我钱、借给我多少钱。但是,这个过程根本没办法解释,它就是一堆代码和数据,它直接给我一个结论,请问现在有多少人是没办法弄懂银行这套系统,就直接按照它的结论来操作的?

李飞飞:这正是为什么我们斯坦福“以人为本” AI 研究院设定了几个核心的研究原则。其中一个很重要的原则,就是我们会更注重能够更好解释或反应人类智能的AI 技术的发展,比如“可解释AI (explainable AI)” 以及对数据库的依赖更少的机器学习方法,比如直接从人类的经验、创造性和学习方式得到启发,更接近人类的人工智能技术。

必威登录网站 7

(斯坦福“以人为本” AI 研究院联合主任李飞飞图自网络,版权属于原作者)

“可解释AI” 的软件在生物医学和法律、金融等多个领域应用的潜能如此之大。你提到的数据不透明,决策不透明的过程将是有望被AI来解释清楚的。反过来说,如果AI可以更好的解释和呈现一个决策过程,那很多我们以往没办法量化的事情以后就无法来弄虚作假了。

另一个原则,是我们会和跨学科的科学家们以及政策制定者,企业家们一起工作,更好定义和应对AI 会引发的隐私、伦理乃至政治和经济问题。目前,我们已经有超过200 多位斯坦福的学者参与其中了。

而且,AI 本身也可以用于正面的解决一些以往没法解决的社会挑战和问题。比如,机器学习可以通过算法来“反偏见”,它可以分析电影中男性的数量和呈现时间,与女性做对比,来证明到底有没有性别偏见。这种级别的分析是人类无法做到的。

赫拉利:我觉得一个解决方法是,我们每个人要更好的更多的了解自己,不要让AI 比我们更了解自己。只要AI 不如我们自己了解自己,AI 替我们做主的威胁就会小很多... 不过话说回来,我们很多人真的一点也不了解自己。

AI 全球竞赛,或比核竞赛更可怕

赫拉利:另一个让我担心的是,AI 发展是一个少数国家,尤其是中、美两国占主导优势的技术领域。很多其他非洲国家、亚洲国家,乃至欧洲国家在这个领域已经远远落后于亚马逊或者腾讯。

必威登录网站 8

(中美两国多方面领跑全球AI。图自Statista,版权属于原作者)

而且更可怕的是,在AI 的发展中,竞争的感觉越来越浓,而不是合作。如果AI 演变成一场全球科技竞争,那是对全人类的一个坏消息。

从经济上讲,这种AI 发展不平衡、一两家独大的局势,将很可能以数据殖民的方式重现19世界的全球殖民地统治。

比如,19世纪时的印度是英国的殖民地,它的经济是围绕殖民地的需求来设计的,只不过它当时供应给英国的是茶园和鸦片,现在它可能供应给加州的是它的大量数据和基础的数据处理服务,然后这些东西流到加州后,进入那些创业公司,变现为走向全世界的一个算法或服务。

从政治上讲,那些AI发展落后的国家会在这种竞争里变得更紧张,因为,即便我已经出局了,我也不希望任何一家做大啊!如果有一天美国的人工智能世界第一,只要它是只服务于美国的利益的,我怎么能够信任它提供的服务呢?而且,一旦有天加州的AI技术和算法能取代那些现在靠便宜产品生存的国家,那些国家的经济甚至会引发崩溃。

所以我说,AI 的全球竞赛,将比核竞赛更可怕。因为,虽然核武器大家都在竞赛,但至少只是研发出来作为底气壮胆,没有人会随便去用的。但是AI 就不一样了,它是发展出来就马上会被用,不管三七二十一。

李飞飞:如今的科学在全球范围内的合作和交流非常频繁,超出你想象,AI 领域更是一个跨国界的合作研究和应用社区,仅在斯坦福,每年的全球合作产生的科学论文数量就多不胜举,还有GitHub 这种全球的开源服务社区。

所以,你所说的这种情况,在全球交流和合作如此频繁的当下,不太会发生。确实很多AI现在资源是在少数大公司里,但不是全部,其实学术界和很多独立研究机构在AI 发展里都有自己的独立角色。

而且,那些目前在这个领域落后的国家,还是有很多机会和时间去思考、制定自己的数据战略和AI 发展战略的。

结语

今天的AI 科学家们要处理的实在太多了,除了技术领域研究,还要回答道德、伦理、隐私、经济、政治,乃至爱情等方方面面的问题。就像李飞飞在对话中开的一个玩笑,“科学家们真的很忙,我羡慕哲学家们,他们可以只提出问题来,用几千年来反复讨论却没有个答案,而我们科学家们却要马上回答。”

这让记者想到几天前采访一个生物科学家时,他提到的观点:“我们科学家受的解决研究问题的学术训练,你提到的基因编辑引发的这些伦理和社会问题,我怎么知道答案呢,你应该去问那些领域的专家,或者干脆去问你们每个人自己:这真的是我想要的吗?”

你对AI 持什么态度?乐观、悲观、两者兼有?你认为AI 会比你的家人、密友、甚至伴侣更了解你吗?如果未来某天AI 想一手包办你的工作、理财、买房买车、相亲择偶等人生大事,你敢相信它吗?欢迎留言讨论!

本文由必威登录网站发布于数据解读,转载请注明出处:必威登录网站英国顶尖科学家敦促政府规范人工

关键词: 必威登录网站 技术 公司 人工智能