閱讀124 返回首頁    go 機器人


AI公共政策成全球熱點,美國ITI發布《人工智能政策原則》

曹建峰騰訊研究院法律研究中心高級研究員

祝林華 騰訊研究院法律研究中心助理研究員

AI公共政策成AI領域全球熱點

AI研究開發和行業應用的熱度仍在持續,在此背景下,AI公共政策成為了全球公私部門關注的熱點。比如,2017年10月,石油大國阿聯酋將人工智能確立為國家戰略,同時高調任命了全球首個人工智能部長(minister of Artificial Intelligence),表明了阿聯酋要用數據這一“新石油”和人工智能來解決其社會和經濟發展問題的決心。

同樣是在10月,英國工業聯合會(CBI)發布《在英國發展人工智能產業》的報告,十分看好大數據、人工智能等對英國生產力的促進、提高作用,預計到2035年AI將給英國經濟增加8140億美元,並為此提出了18條公共政策建議,涉及“提高數據獲取、促進技能供給、最大化AI研發、支持AI傳播和滲透”等四個主要層麵(參見騰訊研究院高級研究員徐思彥《英國再推人工智能報告: 四方麵發力打造AI強國》一文)。

除了最近這些公共政策舉措,美國、歐盟、英國、德國等自2016年以來就開始積極推進AI公共政策,比如在發布的政府報告或者國家AI戰略中唿籲政策、法律、倫理、社會影響等研究,積極推動AI責任立法、AI倫理準則以及自動駕駛、醫療機器人等領域的細分立法,以及唿籲成立專門的人工智能機構加強對就業結構、工作等社會影響的監測並提出政策建議。

不僅公共部門熱衷於AI公共政策,私營部門的科技公司對此亦動作頻頻。部分原因是人們對人工智能存在很大的認知偏差,對新技術缺乏深入理解導致威脅論、普遍失業等觀點加深公眾敵意和不信任,新技術帶來的隱私、責任、安全和控製、理解和透明性、歧視等問題日益引起研究人員的興趣。在業界,未來生活研究院(FLI)2017年初組織提出了人工智能發展的23條原則,2017年的“AI Now”報告提出了10項AI公共政策建議,這些都是業界的研究嚐試。

矽穀的科技公司同樣在以多種方式發表對於AI公共政策的觀點和看法。比如,微軟CEO納德拉2016年在演講中提出微軟發展人工智能的六大原則,包括AI必須是透明性的,在追求效率最大化的同時不損害人類尊嚴,必須保護隱私,防止產生偏見,向算法問責,等等。這六大原則是微軟AI研發的核心設計原則。

此外,微軟還發布了《人工智能政策建議》,包括革新法律和法律實踐以促進AI發展,鼓勵製定最佳實踐倫理準則,以AI帶來的好處為基準衡量隱私法,政府以及公共部門通過啟動重大項目和係統來促進AI的傳播和采用。

還有IBM,Watson團隊很早就成了倫理審查委員會,IBM在2017年達沃斯世界經濟論壇上公布了其發展人工智能的三個基本原則,不以取代人類為目的,增加透明性,以及提高技能培訓和供給。此外,IBM還致信美國國會,表達其公共政策訴求。

英特爾在發布的《人工智能公共政策機會》中對外傳達了英特爾對這一新技術的社會影響的回應,包括促進創新和開放發展,創造新的就業機會並保護人們的福利,負責任地促進數據獲取,重新思考隱私包括PbD、公平信息實踐原則等,合倫理的設計和執行以及配套的可責性原則。

穀歌DeepMind團隊最近宣布成立人工智能倫理部門,表明其在加強AI技術研發和應用的同時,也將倫理等AI公共政策提上議程,負責任地研究和部署AI。

當然,穀歌、Facebook等五大科技公司(蘋果公司後來加入)聯合組成的AI合作夥伴關係也對外宣示了科技公司對AI社會影響的重視,希望技術能夠造福於社會經濟生活和人類自身。

科技公司和科技行業背後的行業組織也沒有閑著。10月24日,代表矽穀等科技行業發展利益和需求的美國ITI(信息技術產業理事會)發布首份《人工智能政策原則》,承認人工智能作為新技術將給社會經濟生活和生產力帶來變革性影響,AI係統可以用於解決一些最迫切的社會問題,而且AI係統應當不是取代勞動者,而是增強勞動者或者創造新的就業機會。

ITI在這份文件中提出了三大層麵的14個原則,從人工智能發展和創新的角度回應輿論關於失業、責任等的擔憂,唿籲加強公私合作,共同促進人工智能益處的最大化,同時最小化其潛在風險。

ITI人工智能政策原則唿籲靈活監管AI,

避免激進立法

人工智能(AI)是一套通過對人類大腦的模仿,能夠進行學習、推理、適應和執行任務的技術。隨著數據獲取和計算能力以及人類創造力的提高,研究人員正在開發智能的軟件和機器,以提高人的生產力並無處不在地增強人類能力。

人們已經感受到了人工智能在眾多領域為人們、社會和經濟帶來的益處。人工智能係統有助於醫學診斷,提高醫生對病情的預見性,幫助個性化治療病人。人工智能提高了軟件的可用性,使得殘疾人可以獲取數字內容,例如幫助盲人“閱讀”互聯網上數百萬張照片或網站。此外,智能係統正在負責監測大量的經濟交易,實時辨別潛在的欺詐行為,並為消費者節省了數百萬美元。

通過將AI的能力和陸地概況圖、天氣預報和土壤數據結合起來,科技可以提供所需的數據和工具以便人類更好地保護土地,改善生態係統和提高農業產量。AI驅動的機器甚至可以使危險或困難的任務更安全,為人們開辟以前無法由人類探索的新環境。

創業公司、中型企業和大型科技公司都開發了AI係統來幫助解決一些社會最迫切的問題。通過使小型企業能以更少的資源做更多的事情,AI能使小型企業承擔風險的能力增強並以更快的速度實現發展。

像其他變革性的技術演變,人工智能的影響不可能被完全地預測。但我們預測它會像互聯網的發展一樣,產生比預料還要大的影響。僅在美國,分析非結構化數據的AI技術市場預計到2020年將達到400億美元,每年對生產力改善帶來的收入可能超過600億美元。這些創新本質上還會創造以前不存在的新產品和服務。到2025年,AI技術預計將為全球經濟增加7.1萬億美元至13.17萬億美元。

這些轉變不應該掩蓋這樣一個事實,即AI仍然是一個不斷發展和改進的研究領域。隨著它的發展,我們要認真承擔責任,為AI世界做好準備,包括尋求解決潛在負外部性的方案,以及幫助培養和鍛煉未來的勞動力。

為了確保AI能夠發揮最大的積極潛力,信息技術產業理事會(ITI)代表技術領域的前沿公司,唿籲公共和私人部門的利益相關者之間相互合作。作為一個行業,我們承認有必要與各國政府和其他有關方麵進行對話,並使之成為每一個階段都應有的步驟。下文列舉了行業和政府可以合作的具體領域,以及能夠促成公私合作夥伴關係的具體機會。為了發展這些我們認為會和AI技術一道進化的原則,我們提出以下共識:

1.我們的責任:促進負責任的發展與利用

(1)負責任的設計和部署

我們認識到,我們有責任在遵守現有法律的基礎上,將一些原則與AI的技術設計相結合。雖然AI對人類和社會的潛在好處是驚人的,但AI研究人員、專家和利益相關者還是應該花費大量的時間來確保AI的設計和部署是負責任的。高度自動化的人工智能係統必須符合保護人類尊嚴、權利和自由的國際慣例。作為一個行業,我們承認AI的使用和濫用可能產生的任何影響,並承認我們有責任也有機會能夠通過引導AI向符合道德的方向發展,來避免可能產生的不良後果。

(2)安全和可控性

技術人員有責任確保AI係統設計的安全性。自主的AI代理(Autonomous AI Agents,或稱AI能動體)必須將用戶和第三方的安全視為首要考慮,AI技術應努力降低對人類可能產生的風險。此外,AI係統的開發必須具有相應保障措施,以確保人類對AI具有控製力,使AI嚴格遵守特定的運行程序。

(3)穩健而有代表性的數據

為了促進數據的有效使用並確保其在每個階段的完整性,行業有責任了解數據的參數和特征,以證明其了解潛在的有害歧視和偏差,並在開始之前和部署整個AI係統的過程中對潛在的歧視和偏差進行測試。AI係統需要利用大型數據集,提供穩健而又有代表性的數據對於開發和改進AI和機器學習係統而言至關重要。

(4)可解釋性

我們致力於與政府、私營企業、學術界和民間社會等主體共同尋求減少自動化決策係統中的歧視(偏見)、不公平和其他潛在危害的方法。但是,尋求這種解決方案的方法應該具體針對特定係統運行所依的特定環境下所呈現的獨特風險。在許多情況下,我們認為實現更優解釋性的工具將發揮重要作用。

(5)自動化AI係統的責任

針對人類作出的AI自主決策(雖然受到人類驅動的繁瑣程序啟發,但常常取代人類通過此類程序作出的決策)引發了社會對相關責任的擔憂。我們承認現有的法律和監管框架,並將致力於與利益相關者合作,在自主係統的背景下為所有實體提供合理的問責製框架。

2.政府的機會:投資和建立AI生態係統

(1)投資AI研究與發展

我們鼓勵通過激勵製度和資金支持來促進研究、開發以及創新。作為長期高風險研究的資金的主要來源,我們支持政府對與AI有高度相關性的研究領域的投資,包括:網絡防禦,數據分析,欺詐性的交易或信息的檢測,機器人,人類增強技術,自然語言處理,交互界麵和可視化。

(2)靈活的監管方式

我們鼓勵政府在采用新的法律法規之前,評估現有的政策工具,並謹慎使用。因為新的法律法規和稅收政策可能無意或不必要地阻礙AI的推廣和使用。由於AI技術的應用領域跨度很大,過度管理可能會無意間減少市場主體(尤其是創業公司和小型企業)創造和提供的技術的數量。我們鼓勵政策製定者認識到在不同部門需要有具體做法的重要性,因為一種監管方式將不足以完全適合所有AI應用程序。我們隨時準備與政策製定者和監管機構合作,解決出現的問題。

(3)促進創新和互聯網安全

我們堅決支持保護AI的基礎,包括源代碼、專有算法和其他知識產權。為此,我們認為政府應避免要求公司轉讓或提供技術、源代碼、算法或加密密鑰作為業務交易條件。我們支持使用包括貿易協議在內的所有可用工具來實現這些目標。

(4)網絡安全和隱私

就像其他技術一樣,AI依賴強大的網絡安全和隱私政策。我們鼓勵政府使用強大的、全球接受和部署的加密技術和其他安全標準,從而實現信任和互操作性。我們鼓勵自願分享關於網絡攻擊或者黑客的信息,以更好地實現消費者保護。技術部門作為利益相關者最信賴的部門,可以通過將強大的安全功能融入到產品和服務中以提升可信度,例如使用已發布的算法作為默認加密方法以及限製對加密密鑰的訪問。數據和網絡安全是AI實現成功的重要部分。

我們認為隨著AI的蓬勃發展,用戶必須能夠相信他們的個人和敏感數據受到適當保護和處理。AI係統應使用包括數據匿名化、取消標識性或集成等工具以盡可能保護可識別性個人信息。

(5)全球標準和最佳實踐

我們促進發展全球自願的、行業主導的、基於共識的標準和最佳實踐。我們鼓勵在這些活動中進行國際合作,以幫助加快采用,促進競爭,並有助於實現成本效益的AI技術的引入。

3.公私合作的機遇:促進終身教育和多樣性

(1)民主獲取和機會平等

人工智能係統正在形成創造經濟價值的新方法,如果這些價值為某些主體所獨享,則可能會加劇現有工資、收入和財富差距。我們支持獲取AI開發所需資源的機會和途徑是多樣的並且是不斷擴大的,例如獲取計算資源、教育和培訓以及參與技術開發的機會等。

(2)科學、技術、工程和數學(STEM)教育

當前和未來的工人需要接受能夠幫助他們成功的必要的教育和培訓。我們認識到培訓的提供至關重要,要對STEM教育領域以及人文科學和社會科學領域都進行重大投資。為了確保未來勞動力的就業能力,公營部門和私營部門應共同努力,設計和提供以工作為基礎的學習和培訓體係,積極為學生提供實際的工作經曆和具體的技能。特別是在AI社區中,優先考慮STEM領域的多樣性和包容性將是確保AI以最強勁的方式發展的重要要求。

(3)勞動力

有人擔心人工智能將導致工作變更、失業或工人流離失所。雖然這些關切是可以理解的,但應該指出的是,大多數新興的AI技術旨在執行特定任務,而不是替代人員。然而這種AI不斷增強的智力的確意味著一個雇員的部分(但很可能不是全部)工作將會被AI替代或者更輕易地完成。

就創造或破壞就業機會而言,AI對工作的全麵影響尚且無法完全知曉,但適應快速的技術變革的能力至關重要。我們應該綜合利用傳統的以人為中心的資源,以及新的職業教育模式和新開發的人工智能技術,來幫助現有的員工和未來的員工成功地開拓他們的事業或完成職業轉型。

此外,我們必須通過公私合作,提高包括勞動力調整項目在內的終身職業教育和學習的傳遞性和有效性。同時,我們還必須優先考慮提供職業培訓以滿足市場對勞動力的需求,將資源集中於能產生強勁成果的項目上。

(4)公私合作夥伴關係

公私合作夥伴關係(PPPs)將使AI部署成為政府和私營企業的熱門投資項目,並促進AI領域的創新性、可擴展性和可持續性。通過利用公私合作夥伴關係,特別是通過企業、學術機構和政府之間的相互合作,我們可以加快人工智能研發,為未來的工作做好準備。

對我國AI公共政策的幾點啟示

從《“互聯網+”人工智能三年行動實施方案》到人工智能被寫入2017年政府工作報告、《新一代人工智能發展規劃》再到十九大報告提出“推動互聯網、大數據、人工智能和實體經濟深度融合”,我國對人工智能的重視不斷提高,已經將發展人工智能上升為國家戰略,而人工智能正逐步成為國際競爭的新焦點,西方發達國家如美國、英國、加拿大等都大力加碼人工智能,紛紛看好其對經濟增長的巨大價值和其他潛在好處。

我們需要看到,人工智能作為一項變革性的技術,有能力創造出巨大的經濟效益,推動經濟增長,並幫助解決人類社會中諸如交通、城市建設、醫療、環境保護等一係列迫切的社會問題,但這同時需要良好的公共政策環境以及對風險和危機的警惕意識。

第一,多層麵打造人工智能生態係統。人工智能目前已經成為全球競爭的新焦點,各國在技術研發和部署上不斷加碼加力,都欲搶占技術高地。我國需要持續加大對人工智能的投資和政策支持,不僅包括提供專項研究資金、給予稅收優惠等扶持性政策,而且需要對阻礙AI研發利用的既有法律製度進行革新(比如形成促進數據開放和獲取的政策框架,因為用AI來解決社會問題、改善社會管理的核心還在於數據的獲取),同時謹慎監管新事物,不宜激進立法,而是多采取行業指導等靈活的監管方式,在技術研發、產業應用、人才培養、政策支持等多層麵形成合力,打造創新性的AI生態係統。

第二,負責任的AI研發和利用。AI技術本身是中立的,可以帶來經濟增長、解決社會問題,但其研發和利用也可能超越法律、倫理的界限,帶來危險危害。如同過去的所有技術一樣,AI也可能被濫用,其發展也可能偏離人類價值追求的方向,這是一個需要重視的問題。公私部門需要一起探索形成人工智能研發倫理和利用倫理限製,形成行業最佳實踐的倫理準則,讓AI創新、研發和部署是負責任的、可持續的,不斷增進社會和個人的福祉。

第三,AI技術傳播滲透和應用普及。AI的社會價值是巨大的,但這取決於AI技術在各個行業的傳播滲透和應用普及。在這方麵,政府可以發揮重大作用,比如可以通過組織實施一係列重大的AI研發、應用工程和係統部署,形成典型案例,從而對行業形成指導,促進AI技術的應用普及。

第四,教育、人才培養和勞動力轉型。AI發展需要教育的跟進和高端人才的培養。正如ITI的人工智能政策原則所言,為了確保未來勞動力的就業能力,公營部門和私營部門應共同努力,設計和提供以工作為基礎的學習和培訓體係,積極為學生提供實際的工作經曆和具體的技能。特別是在AI社區中,優先考慮STEM領域的多樣性和包容性將是確保AI以最強勁的方式發展的重要要求。

但在另一個層麵,雖然當前對AI將如何影響就業和工作,各方觀點不一,但即使最終AI會帶來更多就業,過渡期的勞動者大量失業是目前最大的擔憂,因此需要促進勞動力轉型,適應人工智能、數字經濟等的發展要求。

在這方麵,英國已經投入而且目前還在持續投入大量資金,為每個人提供所需的數字技能;而且,穀歌穀歌、BT等科技公司都承諾通過“數字技能合作夥伴關係”這一項目為數百萬英國民眾提供數字技能培訓,形成人才培養和勞動力再培訓的公私合作夥伴關係。確保在這場變革性的技術演進中沒有一個人落下,是一個社會該盡的責任。

最後更新:2017-10-27 20:12:48

  上一篇:go 阿爾法狗贏了世界,卻仍“虧成狗”,AI全麵商業化還有多遠?
  下一篇:go 人工智能應用規模日漸成熟 五大難題仍待克服