人工智慧演算法的複雜性特質及倫理挑戰
發佈時間: 2017-09-05 14:48:38 | 來源: 光明日報 | 責任編輯: 王子楓
作者:劉勁楊(中國人民大學哲學院副教授)
當下人工智慧的倫理思考多側重於實踐:如人工智慧是否最終會成為人類事務的主導,該以什麼倫理原則來引導、規範人工智慧的應用等。可更大的挑戰卻是理論上的困惑:演算法是人工智慧的內核,不同演算法實則暗含有不一樣的價值選擇,何謂善的演算法?善的演算法必會導向行為的善?人工智慧演算法可以自我學習、自我進化,倫理上該如何看待這種智慧主體?鋻於人工智慧是一種典型的複雜行為,從複雜性的角度我們能更深入地揭示這些困惑和挑戰。
人工智慧演算法的傳統通常有兩個:一是符號認知主義,主張智慧行為依賴於符號操作,通過基於符號表徵的計算可實現學習、記憶、推理、決策,甚至情感活動,如早期的專家系統;二是聯結主義,受人和動物大腦神經結構啟發,認為通過大量底層簡單的“激活單元”相互交織可在高層自發涌現出複雜的智慧行為,這一傳統以人工神經網路為代表。阿爾法圍棋的成功主要得益於後一種傳統,基於神經網路的深度學習實現演算法的突破。
以複雜性視角觀之,基於神經網路的人工智慧演算法有一個突出特質——涌現性,即智慧是一種由演算法底層的簡單規則生成的複雜行為,智慧並不由預定的演算法前提所決定。“涌現”被遺傳演算法的創立者、美國科學家霍蘭稱為複雜世界的“隱秩序”,生命誕生、交通堵塞等都是涌現現象。以棋類遊戲智慧演算法為例,棋子數是有限的,遊戲規則是簡單的,但棋局變化的可能性卻無法窮盡。棋局的最終輸贏是一種涌現,決定棋局走向的不是底層的簡單規則,而是由它們生成的更高層的組織過程。
人工智慧演算法的涌現性具有這樣一些特點:1.智慧行為不是一種底層簡單規則的加和,而是從底層到高層的層次跨越,高層具有底層個體所不具備的複雜特性。2.無法通過底層演算法來準確預測高層的涌現,智慧是演算法前提無法決定的“新奇性”。3.涌現不是單一行為而是由眾多簡單個體行為到複雜集體行為的演化。智慧行為是一個過程,棋局的最終取勝不是依靠單次行為的累加,而是演算法演化系列的整體取勝。阿爾法圍棋在與人類棋手對弈時有一些令頂尖職業棋手難以理解的“昏招”,可這些昏招到了棋局結束時竟成為取勝的“神之一手”。這並不是證明了所謂關鍵招的重要性,而是表明“招數系列”比“某一招”更有意義。在倫理上,涌現性特質揭示出人工智慧演算法具有不同於傳統的行為特徵:人工智慧演算法行為不是邊界清晰的單個行為而是集體行為的演化,其行為效果既不由“某一”行為所決定,亦不由其前提完全決定。
人工智慧演算法的另一個複雜性特質是演算法的自主性。美國科學家馮·諾依曼于20世紀50年代初成功建立了一個能夠自我繁殖的元胞自動機演算法模型,它成為第一個可以自我進化的演算法。當下人工智慧深度學習演算法可以從海量無標注的大數據中自我學習、自我進化。阿爾法圍棋一代曾依據人類歷史上的優秀棋譜,對弈了3000萬盤棋,二代強化了自我增強學習。如果智慧演算法的自主性意味著機器不再是被動的工具,而是某類主動的、自我進化的“生命”(如人工生命),那麼我們是否能説人工智慧就是一個具有自我意識、能夠自我決定的“主體”?以演算法的觀念來看,理性傳統所認可的這種“主體”其實是一個能夠協調個體自身複雜行為的中心控制單元,它擔負該個體所有資訊的整合和全部行為的控制。強人工智慧自主性遵循這一傳統,人們認為未來的人工智慧不僅具有感知對象、解決問題的智慧,還可能具有感知自我的意識。弱人工智慧的自主性主要是指智慧行為的自組織性,機器演算法會在沒有人類程式員的干預下自發學習,自動處理問題,以分佈式控制演算法為其代表。強人工智慧主體在技術上目前還遙遙無期,常常成為科幻作品的題材。弱人工智慧的分佈式控制模式目前已在人工智慧領域得到廣泛應用,形成了一種完全不同於傳統的主體觀念。
要回答什麼是善的演算法,我們需要追溯倫理學的一個基礎問題:什麼是善的行為?該問題又可轉換為什麼是正當的行為?作為主體的“我”應該如何行為?道義論者更強調行為原則的正當,功利論者更看重行為結果的正當。在英國倫理學家喬治·摩爾看來,不論是從功利論還是道義論出發,一個行為是“正當的”在很大程度上就是指“這一行為會産生可能的最大總量的善”,而“我”應當按此善的原則實施某一行為。
2015年5月,美國人約書亞·布朗在使用特斯拉的“自動駕駛”模式時遭遇嚴重車禍身亡,成為人工智慧發展中的重要事件。該事故歷經了十個多月的週密調查,最後歸責為駕駛員過於信任人工智慧,手沒握住方向盤,人工智慧得以免責。不久的將來,人工智慧必會讓我們可完全擺脫方向盤,智慧駕駛系統由廠商的機器人製造,其演算法不斷自我進化,無縫嵌入龐大的物聯網中,行進于更多智慧體交互的開放環境,並與它們共同形成了一個不斷自我演化的複雜演算法整體。在這一整體中,廠商、機器人、使用者、眾多智慧體等都是造就整體的個體,但並不存在對整體負責的“主體”,此時我們在倫理上可能面臨根本的挑戰:智慧行為既不遵循行為與效果之間的直接對應,也不遵循行為與主體之間的必然聯繫,我們該如何做出一個恰當的道德判定?如果智慧行為的涌現是理性原則的失效,我們如何從行為原則的角度來評判其行為的善,又如何能通過道德代碼的嵌入來使之成為善的演算法?如果道德主體實質上是諸多分佈式智慧體的組織過程,那麼什麼是“我”的正當行為呢?面對人工智慧的這些深層挑戰,最為重要的不是一味地退縮和擔憂,而是在挑戰中與其共同進化和成長。
《光明日報》( 2017年09月04日 15版)