资料显示,人类文明大约出现的4000年中,在16世纪之前几乎没有发生太大的变化,整个文明的进化非常缓慢,公元前10世纪的人和公元15世纪的人,无论生活还是生产力都没有发生太大的改变。
只是在农业和游牧文明占据了3000多年的时光,人类的文明始终处于手工阶段,大规模的生产力始终无法实现,科学技术也只是存在应用知识领域,那时候牛顿还没被苹果砸中。然而文艺复兴开始后,人类的文明突然大提速,工业时代来临,一切不可思议的发生了。
19世纪前半叶的人类,不敢相信,会在20多年之后,人类竟然可以隔着万水千山传递自己的声音,更不敢相信,又在20多年后,人类竟然可以驾驶飞机在天空翱翔,更不敢相信又过了20年,人类竟然从一个方盒子上看到人的影像。
这一切都来得太不可思议了,然而文明加速的越来越快,快的让我们来不及思考,不知道到底是我们在推动技术前进,还是技术在推动着社会前进。
终于来到了21世纪,来到一个信息大爆炸的年代,来到一个人与人都成为一个信息源和节点的时代,无论你的手机、电脑、电视、家电等等,都会和你通过看得见的,看不见的网络进行联系。
于是人工智能便出现了。它的出现,解脱了人类的双手。
第一次,人类解脱双手是从森林来到平原,从爬行学会了直立行走,从此人类学会了使用工具,衍生出文明。
而这一次,人类将面临哪些问题呢?这次,是否会让人类彻底的解脱呢?我们只要动一动嘴皮子,一切都会由智能设备为我们效劳?
这不是科幻,文明的加速会让这种场景迅速实现,也许就在明年。
5年前,当我们中大部分人第一次才接触智能手机,我们根本没有预料到,今天智能手机会变的如此普遍。
然而,科技的发展也让许多人忧心忡忡,害怕科技不再受人类控制,反而会毁灭文明。
比如,霍金曾与另外几位科学家在为英国《独立报》撰文时就已表达过类似的忧虑,“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”
而马斯克的看法更加引人注目,他用个人推特账号发布警示,进行长篇论述,称人工智能是人类遇到的最严重的“生存风险”。
既然人类可以进化出文明,而人工智能为什么不可以建立自己的文明?既然机器有了自己的意识和思维,那它是否会拥有自主意识,就如同“奴隶”意识到自己是“人类”。
在人类不长的历史上,确实存在过长达千年“奴隶社会”时代,那时候的“奴隶”根本没有人的权利,只能被称为“会说话”的工具。
英国数学家欧文·约翰·古德把超智能机器的发展形容为“人类需要做的最后一项发明”,因为在超智能机器出现后,人类会把创新与技术研发的工作让给超智能机器这位更为智慧的继任者。
“即使从人机交互出现到人类灭绝并非是一条直线式的发展,我们人类大概还是应该更加严密地盯着点我们的机器”。你能想象到,有一天和你嘻嘻哈哈打趣的萌妹子微软小冰会突然变脸,变成冷冰冰疯狂的屠杀者吗?
就好比,德国纳粹对犹太人干的事。昨天还对你热情有加的邻居突然变成了刽子手。
这可能这有点太过于耸听了。那我们说点好听的吧。
人类之所以产生了文明,是因为人类拥有一个比其它生物容量都大的大脑,并且拥有数以亿计的脑细胞,尽管到现在科学家都没搞清楚究竟什么原因让人类的大脑进化,这种复杂的逻辑别说一般电脑,即使目前已知的超级电脑都无法做到。
然而,互联网的出现,却让每一个智能设备都变成一个脑细胞,它们以非常高速的能力交流信息,就比如,你现在可以和地球另一半的人实时视频聊天。当数以亿计的智能设备连在一起,人工智能的逻辑计算能力确实让人非常担忧。
科幻作家阿西莫夫曾提出著名的《机器人三定律》,我们可以延伸到所有智能设备上,即:
零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:在不违反第零定律的前提下,机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二定律:在不违反第零定律和第一定律的前提下,机器人必须绝对服从人类给予的任何命令。
第三定律:在不违反第零定律、第一定律和第二定律的前提下,机器人必须尽力保护自己的生存。
其实,既然人工智能是由人类设计的,便可以加入自动毁灭代码,就如同人类身上的“死亡基因”,一旦细胞停止分裂人类的生命就终止。
同理一旦有机器违反这三大定律,便启动自毁程序。如果发生大规模的智能设备骚乱,大不了,人类重新回到农耕时代。
在文明进化的中,我们都会遇到各种各样的问题,中国修第一条铁路的时候,还有人因此担心动了龙脉坏了风水,然而不久之后修建铁路成为精英阶层的共识,然后清朝果然因为铁路给亡了……
同理,人工智能带给人类生活和生产力的改变是巨大的,甚至是质的飞跃,把人类的文明推到更高的一层。这也是我国科学技术迎头赶上发达国家的机会,只是机遇和风险永远是并存的,作为人类的一份子,有所担忧也是正常的。
来源:钱塘号