今年两会,百度李彦宏再次提出了有关人工智能的体验,与此同时其他科技大佬对于人工智能的应用也越发关注起来。
小米雷军提出要在国家层面进行人工智能发展的顶层设计,科大讯飞刘庆峰一口气提出了人工智能有关的九条建议,腾讯CEO马化腾也承认,人工智能技术有可能成为战略上的制高点,就连宗庆后、郭广昌等企业大佬也在不同场合发表了对人工智能的看法。
不可否认,去年Google旗下的AlphaGo于极之复杂的围棋战中击败人类,让人们对于AI的关注达到了前所未有的高潮,各种论调此起彼伏。
一些崭新的AI技术有可能会取代人们的工作,加之许多电影里设想出现的人造物种反抗人类的画面,更是引起人们的一丝恐惧,人工智能是否如此骇人,将关系到人类的存亡?
作为人工智能(AI)技术的支持者,著名物理学家史蒂芬·霍金(Stephen Hawking)对于AI带来的潜在挑战也感到担忧。他最近在接受英国《伦敦时报》采访时,对未来表示乐观,不过他对AI的崛起和其他全球性威胁感到担忧。
他认为,各国应该共同采取行动,甚至组建“世界性政府”。霍金说:“我们需要以更快的速度识别这类威胁,并在它们失控前采取行动。这可能意味着,我们需要组建某种形式上的世界性政府。”可是霍金也警告称,这种方法有可能催生“暴政”。
比尔。盖茨曾直言不讳:“我属于担心超级智能的阵营。最初,机器可以为我们做很多事情,而非超级智能。如果我们能够管理好它,它应该可以发挥积极作用。但是数十年后,人工智能将变得足够聪明,值得我们去担忧。”
英国科学协会主席戴维·威利茨(avid Willetts)说:“如此多的人对人工智能感到忧虑并不令人感到惊讶。创新经常令人感到恐惧,但请记住,经济和世界都在不断变化,新兴技术的崛起和采用都需要时间。这项研究显示,在我们持续创新时,也需要聆听公众的恐惧。”
除此之外,还有众多大佬也发表了其对于人工智能的看法,让我们一起来看一看吧。
英国牛津大学教授、人类未来研究所创始人尼克·博斯特罗姆(Nick Bostrom)写道:“我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。”
中国科学院院士、清华大学教授姚期智认为,愈是重复及简单的工作,被AI或其他科技取代的机会愈高,这于文明进步的过程中难以避免。不过他亦强调,AI能力纵使可以非常强大,最终是由人类决定的,“它可以贡献社会,也可以被人利用来做一些破坏社会的事情,所以要说的话人类其实更加危险。”
计算机科学教授、人工智能先驱Stuart Russell表示, “危险不会来自于机器突然发展出的恶意的自主意识,”他说,“重要的是你要知道,我们不是要阻止这样的事,因为我们对于意识本身是什么还一无所知。”
“问题不在于意识,而在于权限。我们赋予机器很大的权限,希望它来完成某个目标,但它在完成目标的过程中可能会引起灾难。”
“一旦你把AI放到真实世界中,放到无人驾驶汽车、数字助理等应用中……当AI开始帮你购买对你利益有影响的物品、帮你取消约会时,它们的价值观立场必须保证和人类一致。”Russell说。
为了应对这些问题,Russell和研究中心的同事打算让AI系统观察人类的行为,并尝试理解人类的真正目的是什么,然后根据人类的目的来行事,并且从失误中吸取经验。摒弃了为机器提供一长串需要遵守的规则的做法,他们只告诉机器主要的目标就是做人类想让他们做的事。
硅谷钢铁侠马斯克表示,要想在AI时代不被淘汰,人类需要与机器相结合,进化成某种半机器人。他认为,计算机在交流时每秒数据交换能达到万亿比特,但人类靠手指输入只能达到10比特。AI崛起后,人类会变得非常没用,因此必须与机器结合来提高自己。
在发言中,马斯克再次表达了它对“深度AI”的恐惧,这种AI比自动驾驶车辆背后的更加高级,因为它已经有了通用性,因此会比世界上最聪明的人还聪明。马斯克认为这种AI的出现会使人类陷入危险境地。
由此可见,就现在的科技水平来讲,未来一段时间内不会有什么潜在危险,但大佬们对于人工智能的担忧也不无道理。 任何事情都是双向的,人们发明了这么多的东西,有利也有弊,但是社会是向前发展的,人工智能的趋势不会停止,要看人们怎么去利用了。