學會篩選 AI 踢走語言暴力

網路帶給人們自由發言的空間,但言語霸凌、言語騷擾的情況也跟著出現,Conversation AI可以自動辨識語言暴力,在被騷擾者看到不當、具冒犯性的言論之前自動刪除該訊息。

與很多人工智能一樣,學習才會令它們進步,而且為人類提供更好的服務。Conversation AI 同樣要學習,學習懂得如何分辨惡意或無害的騷擾語言。為了讓 Conversation AI 學會分辨,Jigsaw 和紐約時報、維基媒體基金會合作,讓 Conversation AI 得以從紐約時報的 1700 條回應和被人工標記為不當言論中學習分辨何者為語言暴力;並於13萬個維基百科頁面的討論中學習語法分析,Jigsaw 目前還在計畫讓 Conversation AI 從更多論壇及社交媒體上學習。

目前 Conversation AI 的精確度超過92%,出錯率為10%,高於任何一款現有關鍵詞過濾器的準確程度。

而紐約時報已經計劃把 Conversation AI 作為篩選評論的第一把關,維基百科則仍在思考如何使用這款工具。

Jigsaw 表示,目標是要在10年內結束審查制度,包含反對派網站因政治目的的網路攻擊、政府對網路服務供應商的限制。

Jigsaw 的產品不只這些,還有 uProxy 和 Project Shield。

uProxy 這個軟體可以透過遭到互聯網審查的用戶翻出防火牆。而 Project Shield 則可幫助媒體、選舉監督網站、人權組織網站防範來自網路的攻擊。

今年 4 月,Jigsaw 曾推出一款叫做 Montage 的軟體,能夠通過分析 YouTube 視頻,幫助戰地記者和非營利機構追蹤發生衝突的地區和蒐集侵犯人權的證據。Jigsaw 甚至推出名為 Redirect Method 的反恐計劃,其核心概念即精準廣告投放技術。計劃團隊使用 Google 的廣告搜尋算法,辨識並鎖定 ISIS 崇拜者,再藉由廣告將他們導入計劃的 YouTube 頻道,讓其觀賞反對恐怖主義的影片,進而阻止他們受到煽動、加入恐怖組織。

Jigsaw 成立時,Google 董事長 Schmidt 曾表示,Jigsaw 的最大目標是解決世界上最棘手的地緣政治問題,將洗錢、組織化犯罪、警察暴行、人口販賣、恐怖主義列為 Jigsaw 要改善的挑戰。

你可能有興趣的內容

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *