生成式 AI 與誹謗:新型聲譽威脅的形態
人工智慧 AI 聊天機器人正在改變誹謗的傳播方式。如今,維護信譽意味著要密切注意 AI 對你的評價。 隨著生成式 AI 人工智慧越來越深入地融入搜尋和內容體驗,它也正在成為虛假資訊和聲譽損害的新來源。 AI 聊天機器人產生的虛假或誤導性陳述已經引發法律糾紛,並引發了關於責任、準確性和線上聲譽管理的新問題。 目錄 當人工智慧成為誹謗的根源時 AI成為誹謗和網路聲譽損害的新來源,這並不令人意外。 身為搜尋引擎優化和聲譽的專家證人,我已經接到一些訴訟案件的當事人的諮詢,這些案件中人工智慧系統發表了誹謗性言論。 這是一個未知的領域——雖然解決方案正在湧現,但其中許多方面仍然是全新的領域。 人工智慧產生誹謗的真實案例 一位客戶聯繫了我,因為 Meta 的 Llama AI 產生了關於一位知名人士的虛假、誤導性和誹謗性言論。 早期調查顯示,此人曾參與並贏得誹謗訴訟,這些訴訟曾被新聞媒體報道。 一些批評者也在網路上批評了這個人,Reddit 上的討論充斥著不準確和煽動性的言論。 然而,當被問及此人或其聲譽時,人工智慧重複了那些已被駁斥的說法,並添加了新的警告,也提出了欺詐和不可信的斷言。 在另一個案例中,一位客戶發現,在 ChatGPT 中,幾乎所有關於他們的提示都會顯示相同的虛假聲明,而該客戶正是誹謗性部落格文章的目標。 關鍵問題是:即使法院下令刪除原始帖子,這些誹謗性言論會在人工智慧回覆中持續多久? 谷歌趨勢顯示,與透過人工智慧聊天機器人傳播的誹謗以及人工智慧相關的線上聲譽管理相關的搜尋量出現了顯著激增: 捏造的故事和現實世界的危害 在其他一些訴訟文件中披露的案例中,生成式人工智慧顯然憑空捏造了關於人們的完全虛假且有害的內容。 2023 年,喬治華盛頓大學公共利益法沙皮羅教授喬納森特利被錯誤地指控性騷擾——這一指控從未提出,也從未發生過,而他當時所在的學院他從未教過課。 ChatGPT 引用了一篇從未發表過的《華盛頓郵報》文章作為其消息來源。 9 月,前 FBI 特工詹姆斯·基恩 (James Keene) 對谷歌提起訴訟,因為谷歌的人工智慧錯誤地聲稱他因多項罪名被判處終身監禁,並稱他是三名女性的兇手。 訴訟還稱,這些虛假陳述可能被數千萬搜索者看到。 …
