台灣茵蝶智能機器人論壇

標題: 智能機器人會灭亡人類嗎? [打印本頁]

作者: admin    時間: 2023-9-6 16:10
標題: 智能機器人會灭亡人類嗎?
智能呆板人會扑灭人類嗎?

實在這是個很是繁杂的問题,在答复以前咱们先来明白下几個觀點

甚麼是智能呆板人:固然近来人工智能這個觀點起頭被公共广泛熟知,也被不少媒體频频說起

但到底甚麼是人工智能呐,讓我来具體诠释下:

如今科學界广泛界說人工智能是一種拟人的智能,也就是說所有的思惟方法都是复刻人類的模式,人類的智能是一個很是繁杂的调集體,计较機最先摹拟了人類的 ” 计较 ”能力----ALU (arithmetic and logic unit ),“影象”能力----RAM/ROM/Hard Disk,然後又摹拟了 “ 感知 ”-----傳感器(sensor),包含近几年呈現的 ” 深度進修 ”能力----Deep Learning. 這些都是對人類智能的一種摹拟。

接下来就引出了下一個問题----人類智能和人工智能最大的區分在於哪里:谜底是感情和意識

感情令人類可以或许有喜恶和方向性,而意識则讓人類可以或许區别實际和想象。為甚麼要提到這两個觀點,是由於在浩繁科幻片子中,人工智能扑灭人類就是由於發生了自我意識及感情,他们認為人類是險恶的或是過剩的,以是干掉了人類。

但究竟上,在實际糊口中,人工智能若是要扑灭人類,极可能其實不因此這類情势,缘由在於:

感情對付人工智能来讲其實不是必须品,這可以說是人類智能的從属品,有了感情其實不能使咱们更智能,只是會讓咱们更不成展望,但這對付呆板来讲明显没有需要付與,也不该该付與。

意識這個工具就更玄乎了,人類科學家到如今都没有搞清晰意識是甚麼,更不要說付與呆板意識了,獨一的多是在不知情的环境下呆板忽然發生了自我意識,而這個可能性最少在很长的時候内微不足道,且這個問题其實不及我将要說到的問题紧急


既然科幻片子里的环境其實不太可能產生,
那末人工智能是否是很平安了那?


谜底是NO !!!

大写的NO!!!

早在人工智能還只是一個科幻觀點的時辰,美國聞名科幻小說作家艾萨克·阿西濕疹藥膏推薦,莫夫就在其1950年颁發的小說《I,Robot》(對,就是威尔史姑娘演的那部片子的原著)中提出了聞名的呆板人三大定律:

第一法例:呆板人不得危險人類,或坐视人類遭到危險;

第二法例:除非违反第一法例,呆板人必需從命人類的号令;

第三法例:在不违反第一登科二法例下,呆板人必需庇護本身。

這個三大定律之間的内涵逻辑實在很严谨,且一旦被作為代码写入人工智能呆板人的步伐,就比如人類的基因同样,呆板人就會像人類饿了要吃工具,困了要睡觉同样,严酷遵照這些定律(除非他们可以點窜本身的代码,一样的,這個問题其實不及如下的問题紧急),没必要担忧他们會违反這些定律,那末問题是甚麼那?

問题就在於第一條定律自己,呆板人极可能没法正确果断!

没法果断的問题有二,咱们别离举例阐明:

問题一:哪小我類比力首要?

甚麼意思,就比如說呆板人它固然可以或许晓得它不成以随便殴打人類,哪怕它再强健,再刀枪不入;

一样它看到有人落水了,他會第一時候去救濟他,哪怕它可能在水中會報废。可是有一種环境會呈現問题,那就是若是必要他决议救谁,或危險谁!

举個栗子:好比如今有两小我同時落水,但只有一個呆板人,他的能力只够救起一個,他救谁?再好比,有一個呆板人保镳,它的主人受到進犯,他是不是應當還击哪?不管還击不還击,他都必需危險人類。固然,以上這些問题還不至於灭尽人類,可是看下面這類环境,若是如今基地组消臭晶球,织頭子具有一些呆板人,先不斟酌可怕份子是不是會改写呆板人代码,哪怕就是一個平凡的严酷遵照三大定律的呆板人,若是世界上大大都當局對其主人举行不竭围歼的环境下,他是不是會果断,扑灭這些國度是庇護人類(它的主人)的法子?若是他足够壮大,那末會產生甚麼那?细思极恐啊。呆板人没有價值觀,這個是最可骇的,它的一切基於逻辑。這個實在雷同於一個經典悖論問题----電車困难,不晓得的可以baidu一下,人類尚且存在争议,呆板人就更难果断了。

問题二:不直接危險人類是不是就象征着不會危險人類?

這個問题看上去有些拗口。举個栗子:呆板人的智能愈来愈高,它已不知足於在風險產生時庇護人類,它筹备要防患於未然。因而它先大肆歼灭了不少毒蛇害虫,临時看似不错(實在這個举動自己粉碎了生态體系,其實不必定是好的),接着他發明每一年西班牙會有個他人類由於斗牛勾當被牛撞死,因而它干掉了所有的牛,一样的它會干掉所有它認為會風險到人類的一切生物,哪怕几率很小。這時候人類可能會落空大量食品来历。接着它又發明,車祸,衡宇倾圮等天灾人祸也可能致使人類遭到危險,以是他乘没有人在的時辰,把所有的車辆,衡宇全数毁掉。以“解决”這些問题。接下去你只必要阐扬想象就晓得,他可能會扑灭一切来庇護人類,而究竟上落空了食品,居处及一切一切的人類极可能反而會因其間接衰亡,最可骇的是,當呆板智能足够高,超過跨過人類不少的時辰,這些举動人類不单没法阻拦,并且從起頭到完成可能在大量的呆板人的操作下,只是一瞬之間產生的!

而這一切的一切,都是合适定律的,看似很简略就可以解决的,現實上呆板的误會肯能會造成人類的灭尽!

以是,霍金等人真正想讓咱们警戒的因此上這類环境的產生,人工智能,咱们真的筹备好了嗎?

在智能成长到必定高度的時辰,我想應當先缓一缓,把呆板人的價值果断系统創建起来以後再举行進一步的智能成长,也许是一件很是首要的事!




歡迎光臨 台灣茵蝶智能機器人論壇 (https://goldjhc.com.tw/) Powered by Discuz! X3.3