Meta、Snapchat 和 TikTok 推出新的 Thrive 心理健康倡議
Meta、Snapchat 和 TikTok 終於聯合起來,對其平臺上某些內容的有害影響採取措施——這可真是時候。
與心理健康聯盟合作,這三個品牌正在使用一個名爲 Thrive 的程序,該程序旨在標記並安全共享有關有害內容,重點針對涉及自殺和自殘的內容。
一篇 Meta 博客文章寫道:“與許多其他類型的潛在存在問題的內容一樣,自殺和自殘內容不限於任何一個平臺……正因如此,我們與心理健康聯盟合作建立了 Thrive,這是首個用於分享有關違反自殺和自殘內容相關信號的信號共享項目。
“藉助 Thrive,參與其中的科技公司將能夠分享有關涉及自殺或自殘的違規內容的信號,以便其他公司能夠進行調查並採取行動。Meta 正在提供支撐 Thrive 的技術基礎架構……這使得信號能夠被安全地共享。”
當像 Meta 這樣的參與公司在其應用程序上發現有害內容時,它會向其他科技公司共享哈希值(與自殘或自殺相關內容片段的匿名代碼),以便它們能夠檢查自家數據庫中是否有相同內容,因爲這類內容往往會在多個平臺上傳播。
只要有依賴用戶上傳自身內容的平臺,就會有一些人違反規定在網上傳播有害信息。這可能以騙子試圖出售虛假課程、針對兒童頻道的不當內容以及與自殺或自殘有關的內容的形式出現。發佈這類內容的賬號通常很擅長規避規則並躲避監管以接觸到目標受衆;這些內容往往被刪除得太晚。
能看到社交媒體平臺——它們運用全面的算法以及類似賭場的架構致使用戶沉迷,還自動推送他們會參與的內容——實際上承擔起一些責任並共同努力,真是不錯。在這些最受歡迎的社交媒體應用之間,這種合乎道德的合作是極爲必要的。然而,這應該只是成功之路上的第一步。
用戶生成內容的問題在於其需要不斷受到監管。人工智能當然有助於自動標記有害內容,但仍會有一些漏網之魚——很多這類內容比較微妙,還包含潛臺詞,在這個鏈條的某個環節,需要有人進行查看並將其標記爲有害。當涉及到有害內容相關的不斷變化的政策時,我肯定會關注 Meta、TikTok 和其他公司。