AI 是友非敵?自殺預防技術已成功挽救 25 人生命
據世界衛生組織統計,每年有80萬人死於自殺。 這個數字年年居高不下,但是人工智能和機器學習的不斷創新卻可以改善這一現狀。本文編譯自VentureBeat的原標題為AI isn’t just taking jobs, it’s saving lives的文章。
2017年,AI研究人員再度研發出了一係列能夠預防自殺的技術。Facebook,AI Buddy項目,Bark.us以及最近由卡內基梅隆大學和匹茲堡大學共同合作的項目都研發出了能夠預防自殺的技術。 盡管在危機時刻AI無法取代人類產生情感共鳴或給予患者支持,但在過去一年中,這些技術創新的確可以檢測到患者的自殺傾向,幫助醫療保健機構,患者的朋友和家人防患於未然,避免悲劇發生。
AI在精神保健方麵的應用
上周,卡內基梅隆大學和匹茲堡大學的研究人員在Nature Human Today雜誌上發表了一篇論文,介紹他們在人工智能領域的最新創新成果。該團隊創建了一個AI,可以識別出有自殺傾向的參與者。
研究人員將34名參與者分成了一個有自殺傾向組中和一個對照組。之後,他們引導每個參與者參加功能性磁共振成像(fMRI)測試。測試中,每個參與者將會看見三張寫著十個詞的列表。 這些詞匯包括“死亡”和“悲傷”等與自殺相關的詞,“無憂無慮”和“善良”等擁有積極暗示的詞,以及“無聊”和“邪惡”等擁有負麵暗示的詞。
通過每次測試的腦部掃描,研究人員可以確定參與者在看見與自殺傾向有關的六個詞時,五個腦部位置會有反應。結果顯示,當出現像“死亡”或“麻煩”這樣的詞時,有自殺傾向的參與者的大腦活動與對照組的大腦活動明顯不同。
研究人員利用大腦的這些位置和單詞來訓練機器人如何區分有自殺傾向的人。結果幾乎準確無誤。該機器人能夠識別出自殺傾向組中的17名參與者中,有15名參與者有自殺傾向,對照組中的17名中有16名有自殺傾向。研究人員把這個小組分成九個有自殺傾向的參與者和八個沒有自殺傾向的參與者,結果機器的準確率更高。當利用以上結果對機器人再次訓練後,機器人能夠成功識別出17個參與者中,有16個有自殺傾向。
“我們的最新技術是獨一無二的,因為它確定了觀念轉變與自殺意念及相關行為之間的關係。使用機器學習算法來評估與自殺有關的特定概念的神經表征,這打開了通向大腦和思維的窗戶,也揭示了有自殺傾向者如何思考與自殺和情感有關的概念。“ Marcel Just說(希伯克大學人文社會科學學院迪特裏希大學心理學教授)。
對於心理學專家來說,這項發現是令人興奮的。因為他們希望能夠早點發現高危患者的自殺想法。然而,這項技術必須經過進一步的測試才能應用於標準精神保健中。 匹茲堡大學的首席研究員 David Brent說:“現在,急需更大的樣本來檢測這項技術。然後就可以利用這項技術來識別有自殺傾向的患者。”
利用AI預防自殺
今年早些時候,VentureBeat報道了由科技公司研發的幾種麵向消費者的AI自殺預防技術。今年三月,Facebook的研究人員對第一批技術進行了測試。去年春天,這家社交媒體巨頭推出一項功能。Facebook使用模式識別技術來識別和標記有可能包含自殺想法的帖子。今年,Facebook表示,計劃將現有針對Facebook帖子的自殺預防工具整合到流媒體直播功能FacebookLive、消息服務Messenger中,人工智能將被用於協助發現有自殺傾向的用戶。Facebook更新後的工具將為觀看視頻直播的用戶提供一個選項,允許其直接聯係有自殺傾向的用戶,並將視頻報告給Facebook。Facebook還將向舉報用戶提供專業幫助,包括聯係好友和撥打熱線電話。
AI Buddy項目是去年春天推出的另一項自殺預防技術。現役軍人的子女(自殺幾率較高)可以通過該技術在他們最喜歡的數字平台上和虛擬夥伴進行交流。虛擬夥伴能夠監視孩子的一舉一動,並根據他們對話中使用的詞匯向監護人發送進度報告。經過訓練,這台機器經可以識別蘊含自殺傾向和想法的語言。這樣看護人員能夠更有效地監督現役軍人子女的心理健康狀況。
科技公司Bark.us通過機器學習分析用戶的電子郵件,短信內容及社交媒體平台上的信息。該係統可以識別出表明用戶正在考慮自殺的語言,如果感到問題嚴重,該係統會向用戶的監護人發送警報。該公司在2015年成立,其產品和技術已經造福了很多消費者。 7月,該公司宣布,在分析了5億多青少年發布的信息之後,該係統已經挽救了25人的生命。盡管這項技術不算創新,但該係統挽救的生命數量標誌著自殺預防技術的重大進展。
對未來充滿希望
基於AI的自殺預防技術是潛力無窮的。隨著技術的進步,我們需要銘記精神健康專家和護理人員永遠都是必不可缺的。 事實上,情緒管理係統和心理學家隻會變得更加重要。 隨著人工智能技術能夠更早地發現自殺傾向,患者的朋友,家人及醫生必須按照係統發出的警告,早早采取行動。
最後更新:2017-11-13 18:34:11