EN
https://www.gov.cn/

為人工智慧發展“定規立矩”

2016-11-22 08:15 來源: 人民日報
字號:默認 超大 | 打印 |

最近,“人機大戰”引起世人關注,一些人對人工智慧可能會對人類造成危害甚至威脅人類生存表示擔心。對此,英國科學家霍金和美國微軟公司創始人蓋茨等名人也提出了警告。我對人工智慧發展持樂觀態度,但前提是人類要制定和遵循設計與製造機器人的相應規則。

人類製造的智慧機器人威脅到人類自身的生存,這被稱為“技術奇點”問題。技術奇點是指擁有人類智慧的機器人不斷改進自己,並且製造或繁殖越來越聰明、越來越強大的機器人,最終達到人類不可預測、無法控制的地步。如果製造智慧機器人的技術越過這一奇點,局面將無法收拾,會傷害人類甚至使人類面臨滅亡危險。但人類可以防患于未然,防止機器人製造技術達到或超越這一技術奇點完全是有可能的,關鍵是我們有無能力使設計、製造機器人的科學家和製造商遵守人工智慧發展的規則。

1942年,美國科普作家阿西莫夫提出了“機器人三原則”:一是機器人不能傷害人類;二是機器人要聽從人類指揮,除非違反第一條;三是機器人要保護自己,除非違反第一條或第二條。這些原則是好的,然而現在許多科學家提出的已不僅是機器人可能傷害人的問題,而是關係到人類生死存亡的問題,“機器人三原則”已遠遠不能適應時代發展需要。這就迫切需要在“機器人三原則”基礎上,進一步為人工智慧發展制定規則。

人工智慧發展的新規則至少應包含以下四個方面內容。第一,應禁止機器人擁有人類所有智慧,也就是説,在設計和製造機器人時應留一手。例如,不能讓機器人擁有製造或繁殖自己的能力。第二,應建立人工智慧研究倫理審查委員會,審查智慧機器人研究計劃,對於機器人擁有人類所有智慧的研究計劃不予批准,禁止利用任何資金資助這類研究計劃。第三,與立法禁止化學和生物學武器類似,設計和製造智慧機器人的國家以及相應國際機構應立法禁止生産與人類一樣聰明甚至比人類更聰明的智慧機器人,違反此類法律者要承擔刑事責任。第四,要求科學家和企業設計與製造行動合乎道德的機器人。讓機器人與我們一樣自主做出合乎道德的決定,這是一件比較困難的事情。鋻於近幾年應用功能性核磁共振技術研究大腦的成果,人們的道德直覺和道德判斷也可能有神經生物學基礎,甚至也可能有基因基礎,這就給研發行動合乎道德的機器人的計劃提供了科學基礎。

在防止智慧機器人危害人類的同時,也應考慮如何正確對待它們。如果機器人沒有感知疼痛的能力,那麼,它就是沒有道德地位的,只是人類的工具而已。然而,一旦機器人能感知疼痛,就會産生倫理問題。我們不能任意對待能感知疼痛的動物,即使在一定條件下我們需要利用它們進行實驗研究,也要關心它們的福利,對它們的研究方案要經過動物實驗機構倫理委員會審查批准。同理,一旦機器人能感知疼痛,我們就應像對待能感知疼痛的動物一樣對待它們。機器人一旦有了自我意識,包括理性、情感以及社會互動能力,在某種意義上就應被當作具有人格的人或社會的人來對待,享有生命和福利受保護的權利。邱仁宗 中國社會科學院哲學研究所研究員)

【我要糾錯】責任編輯:杜暢
掃一掃在手機打開當前頁