人工智能發展及其倫理問題思考

本文首發於微信公衆號“StrongerTang”,可打開微信搜一搜,或掃描文末二維碼,關注查看更多文章。
原文鏈接:(https://mp.weixin.qq.com/s?__biz=Mzg3NDEzOTAzMw==&mid=2247483696&idx=1&sn=af3e668a8ba819ab7f18c656ddcc7eac&chksm=ced41dc6f9a394d08efa3f230806f499d063b536472541311ef202e40fee36732564b30db109&token=1631829550&lang=zh_CN#rd)
(注:本文插圖來源於網絡,如有侵權,聯繫刪除)

摘要:近年來,隨着人工智能相關技術的快速發展,大量的AI應用湧現,從教育、醫療、養老、交通到製造業、物流等領域,大量的應用取得顯著效果。在享受人工智能技術發展帶來的各種福祉的同時,我們也注意到,圍繞人工智能產生的倫理問題也越來越突出,成爲全社會關注的焦點。如何規避人工智能帶來的倫理問題,已經成爲人工智能發展無法迴避的重要問題。


在這裏插入圖片描述

剛剛結束不久的2018年神經信息處理系統大會(Neural Information processing Systems Conference)上,阿里巴巴展示了其菜鳥物流公司的AI(Artificial Intelligence,人工智能)客服助手,給人留下了深刻的印象。現場的演示視頻對話更是讓很多人感到震驚,甚至許多人在網絡上發表了諸如“有點恐怖”、“擔憂某一天機器人統治人類社會”、“感覺未來會發展的很可怕”等擔憂的言論,AI及其倫理問題再次引起廣泛熱議。

在21世紀的今天,如果問還有哪一項技術能夠和歷次工業革命中的先導科技相提並論的話,那麼答案一定是正在步入成熟增長期的人工智能技術。毫無疑問,近年來人工智能相關技術的快速發展,不僅拉動了移動互聯網、大數據、超級計算、物聯網等產業的升級,還將全面滲透製造、金融、交通等傳統產業,市場前景十分廣闊。目前已經有大量的AI應用湧現,從教育、醫療、養老、交通到製造業、物流等領域,大量的應用取得顯著效果。

醫療領域,以肺結核診治爲例,目前資深主任醫師的診療準確率約爲70%,而國防科技大學開發的一套智能輔診系統準確率則能達到90%以上。螞蟻金服等互聯網金融企業將人工智能技術與平臺金融監管業務相結合,爲整治洗錢、欺詐等金融違法犯罪行爲提供利劍,促進金融智能化發展。京東等企業大力發展智能倉儲物流解決方案,促進裝卸搬運、分揀包裝、加工配送等物流環節的智能化發展。

在這裏插入圖片描述

騰訊雲優圖天眼系統,利用AI人臉檢索技術,助力福建省公安廳在3個月內成功尋回124名走失人員,讓衆多失散家庭重獲團聚。還幫助公安系統建立智能追捕逃犯體系,目前已被包括蘇州在內的多個城市公安系統採納應用。

在享受人工智能技術發展帶來的各種福祉的同時,我們也注意到,圍繞人工智能產生的倫理問題也越來越突出,成爲全社會關注的焦點。

人工智能帶來的究竟是福祉還是挑戰,其實這一問題已經在衆多文學、影視作品中進行過探討。比如,在江蘇衛視《最強大腦》第四季節目中,百度研發的小度機器人藉助人臉識別與深度學習技術,戰勝了世界記憶大師王峯;谷歌研發的“AlphaGo”接連擊敗了各國圍棋高手,登上了人類智力遊戲的頂峯。爲此,也引發了關於人工智能倫理問題的思考。

在這裏插入圖片描述

目前,人工智能可能帶來的倫理問題主要體現在兩個方面:一方面,一旦人工智能具備了超越機器的屬性,愈發類似於人的時候,人類是否應當給予其一定的“人權”。另一方面,人工智能正在逐步在某些社會生產、生活領域逐漸替代人類,那麼其在生產生活中造成的過錯應當如何解決。針對這些情況,如何基於倫理視角引導人工智能服務於人類,已經成爲人工智能發展必然要面對的問題。

美國學者雷·庫茲韋爾在《如何創造思維》一書中提出,至本世紀三十年代前後,人類將有能力製造出極爲智能的機器人,其能夠與人類產生一定程度的情感聯繫,並具備自我意識。因此,當前人類應加快討論可能出現的倫理問題,即一旦高智能機器人誕生,出現了自我意識,人類是應當遏制其進一步成長,還是給予其“人權”。一些專家認爲,賦予人工智能以“人權”是對人工智能的放縱,將對人類的生命安全造成威脅。持相反觀點者則認爲,人類能夠開發出符合人類道德的人工智能產品,因此可以給予人工智能部分基礎的“人權”。

當人工智能取代了部分醫療人員的崗位,誤診出現時,人們應當向誰追責,是醫療機器人的使用方,還是生產方,抑或是其本身?實際上,這並非是遠離人類當前生活的問題,在測試階段事故頻發的無人駕駛汽車已然將這一問題推到了人類面前。

類似的倫理衝突實例還有很多,隨着人工智能技術深入參與人類生活,如何規避人工智能帶來的倫理問題,已經成爲人工智能和機器人產業發展無法迴避的重要問題,相關專家給出如下建議:

一、完善相關立法。首先,要加強事前立法,藉助法律手段規範人工智能的發展,確保其始終在人類可控範圍內,規避可能發生的倫理問題。其次,要加強事中立法,即針對人工智能可能帶來的倫理問題進行相關立法,明確責任劃分依據與標準,從而保證研發責任人、生產責任人、銷售責任人以及使用責任人都能夠較好地履行自身對人工智能產品的義務。最後,要加強事後立法,確保人工智能技術得到廣泛運用,並進入羣衆生活。總之,通過相關法律規範人工智能產品的開發與利用,能夠避免人工智能產品脫離控制,進而規避可能產生的倫理問題。

二、加強對相關技術與產品的管理力度。一旦技術發展成熟,人工智能便能夠正式參與人類生活。因此,我們要加強對人工智能技術與產品的管理,使其具備優良的“倫理品質”。要加強對人工智能技術的管理,要對人工智能產品的應用程序進行審查,確保程序未被嵌入惡意性代碼。同時,要提高行業准入門檻,確保技術安全性。

三、提高人們的認知素養。人工智能的發展方向很大程度上由人類自身決定。如果人類只是一味地拒絕接受該技術,人工智能勢必無法服務人類 。而如果人類一味接受人工智能技術,則勢必會爲倫理問題的產生埋下隱患。因此,唯有提升人們的認知素養,才能使人工智能更好地爲人類服務。其中尤其應提高科研人員的認知素養,使其堅持對人類和社會負責,在人工智能研究方向、研究方法以及研究成果應用的過程中,始終保持謹慎的態度。

我們必將生活在一個人機共生的時代,我們在享受人工智能技術帶來的各種福祉的同時也必須要對其隨之而來的倫理衝突有清晰的認知並採取客觀、公正、妥善的措施加以面對,謀求一個人機和諧相處的時代,實現技術造福人類的初衷。

參考文獻:

[1]王勇.人工智能時代的法律主體理論構造–以智能機器人爲切入點[J].理論導刊,2018(2):74-75.

[2]郭建偉,王文卓.如何規避人工智能帶來的倫理問題[J].熱點述評,2018(12):56-57.

[3]孫偉平.人工智能導致的倫理衝突與倫理規制[J].教學與研究,2018(8):57-63.

[4]王海春,曾偉一,凌智輝.用自然辯證法的科學觀點對人工智能計算機研究工作進行的反思[J].成都航空職業技術學院學報,2003(19):37-39.

[5]李德聰.“人工神經網絡”理論發展的自然辯證法意義[J].廣西大學學報,1999(21):19-23.


在這裏插入圖片描述
(關注微信公衆號“StrongerTang”,看更多文章,和小湯一起學習,一同進步!)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章