662
機器人
人工智能算法的複雜性特質及倫理挑戰
作者劉勁楊(中國人民大學哲學院副教授)
責編 許嘉芩 劉愈
當下人工智能的倫理思考多側重於實踐:如人工智能是否最終會成為人類事務的主導,該以什麼倫理原則來引導、規範人工智能的應用等。可更大的挑戰卻是理論上的困惑:算法是人工智能的內核,不同算法實則暗含有不一樣的價值選擇,何謂善的算法?善的算法必會導向行為的善?人工智能算法可以自我學習、自我進化,倫理上該如何看待這種智能主體?鑒於人工智能是一種典型的複雜行為,從複雜性的角度我們能更深入地揭示這些困惑和挑戰。
人工智能算法的傳統通常有兩個:一是符號認知主義,主張智能行為依賴於符號操作,通過基於符號表征的計算可實現學習、記憶、推理、決策,甚至情感活動,如早期的專家係統;二是聯結主義,受人和動物大腦神經結構啟發,認為通過大量底層簡單的“激活單元”相互交織可在高層自發湧現出複雜的智能行為,這一傳統以人工神經網絡為代表。阿爾法圍棋的成功主要得益於後一種傳統,基於神經網絡的深度學習實現算法的突破。
以複雜性視角觀之,基於神經網絡的人工智能算法有一個突出特質——湧現性,即智能是一種由算法底層的簡單規則生成的複雜行為,智能並不由預定的算法前提所決定。“湧現”被遺傳算法的創立者、美國科學家霍蘭稱為複雜世界的“隱秩序”,生命誕生、交通堵塞等都是湧現現象。以棋類遊戲智能算法為例,棋子數是有限的,遊戲規則是簡單的,但棋局變化的可能性卻無法窮盡。棋局的最終輸贏是一種湧現,決定棋局走向的不是底層的簡單規則,而是由它們生成的更高層的組織過程。
人工智能算法的湧現性具有這樣一些特點:
智能行為不是一種底層簡單規則的加和,而是從底層到高層的層次跨越,高層具有底層個體所不具備的複雜特性。
無法通過底層算法來準確預測高層的湧現,智能是算法前提無法決定的“新奇性”。
湧現不是單一行為而是由眾多簡單個體行為到複雜集體行為的演化。
智能行為是一個過程,棋局的最終取勝不是依靠單次行為的累加,而是算法演化係列的整體取勝。阿爾法圍棋在與人類棋手對弈時有一些令頂尖職業棋手難以理解的“昏招”,可這些昏招到了棋局結束時竟成為取勝的“神之一手”。這並不是證明了所謂關鍵招的重要性,而是表明“招數係列”比“某一招”更有意義。在倫理上,湧現性特質揭示出人工智能算法具有不同於傳統的行為特征:人工智能算法行為不是邊界清晰的單個行為而是集體行為的演化,其行為效果既不由“某一”行為所決定,亦不由其前提完全決定。
人工智能算法的另一個複雜性特質是算法的自主性。美國科學家馮·諾依曼於20世紀50年代初成功建立了一個能夠自我繁殖的元胞自動機算法模型,它成為第一個可以自我進化的算法。當下人工智能深度學習算法可以從海量無標注的大數據中自我學習、自我進化。阿爾法圍棋一代曾依據人類曆史上的優秀棋譜,對弈了3000萬盤棋,二代強化了自我增強學習。如果智能算法的自主性意味著機器不再是被動的工具,而是某類主動的、自我進化的“生命”(如人工生命),那麼我們是否能說人工智能就是一個具有自我意識、能夠自我決定的“主體”?以算法的觀念來看,理性傳統所認可的這種“主體”其實是一個能夠協調個體自身複雜行為的中心控製單元,它擔負該個體所有信息的整合和全部行為的控製。強人工智能自主性遵循這一傳統,人們認為未來的人工智能不僅具有感知對象、解決問題的智能,還可能具有感知自我的意識。弱人工智能的自主性主要是指智能行為的自組織性,機器算法會在沒有人類程序員的幹預下自發學習,自動處理問題,以分布式控製算法為其代表。強人工智能主體在技術上目前還遙遙無期,常常成為科幻作品的題材。弱人工智能的分布式控製模式目前已在人工智能領域得到廣泛應用,形成了一種完全不同於傳統的主體觀念。
要回答什麼是善的算法,我們需要追溯倫理學的一個基礎問題:什麼是善的行為?該問題又可轉換為什麼是正當的行為?作為主體的“我”應該如何行為?道義論者更強調行為原則的正當,功利論者更看重行為結果的正當。在英國倫理學家喬治·摩爾看來,不論是從功利論還是道義論出發,一個行為是“正當的”在很大程度上就是指“這一行為會產生可能的最大總量的善”,而“我”應當按此善的原則實施某一行為。
2015年5月,美國人約書亞·布朗在使用特斯拉的“自動駕駛”模式時遭遇嚴重車禍身亡,成為人工智能發展中的重要事件。該事故曆經了十個多月的周密調查,最後歸責為駕駛員過於信任人工智能,手沒握住方向盤,人工智能得以免責。不久的將來,人工智能必會讓我們可完全擺脫方向盤,智能駕駛係統由廠商的機器人製造,其算法不斷自我進化,無縫嵌入龐大的物聯網中,行進於更多智能體交互的開放環境,並與它們共同形成了一個不斷自我演化的複雜算法整體。在這一整體中,廠商、機器人、使用者、眾多智能體等都是造就整體的個體,但並不存在對整體負責的“主體”,此時我們在倫理上可能麵臨根本的挑戰:智能行為既不遵循行為與效果之間的直接對應,也不遵循行為與主體之間的必然聯係,我們該如何做出一個恰當的道德判定?如果智能行為的湧現是理性原則的失效,我們如何從行為原則的角度來評判其行為的善,又如何能通過道德代碼的嵌入來使之成為善的算法?如果道德主體實質上是諸多分布式智能體的組織過程,那麼什麼是“我”的正當行為呢?麵對人工智能的這些深層挑戰,最為重要的不是一味地退縮和擔憂,而是在挑戰中與其共同進化和成長。
【本文原載於《光明日報》(2017年09月04日第15版),轉載請聯係作者獲取授權,並注明出處。】
最後更新:2017-10-08 04:51:05