搜尋引擎可以偵測人工智慧內容嗎?
探索人工智慧在搜尋中產生的內容的複雜性,以及Google的長期目標如何影響其對該技術的反應。 去年人工智慧工具的爆炸性成長對數位行銷人員產生了巨大影響,尤其是SEO領域的行銷人員。 鑑於內容創建耗時且成本高昂,行銷人員轉向人工智慧尋求幫助,但結果好壞參半 儘管存在道德問題,但反覆出現的一個問題是:“搜尋引擎可以檢測到我的人工智慧內容嗎?” 這個問題被認為特別重要,因為如果答案是否定的,那麼關於是否以及如何使用人工智慧的許多其他問題就變得無效。 機器生成內容的悠久歷史 雖然機器生成或輔助內容創建的頻率是前所未有的,但這並不是全新的,也並不總是負面的。 對於新聞網站來說,首先報導新聞是當務之急,他們長期以來一直利用股票市場和地震儀等各種來源的數據來加快內容創作。 例如,發布一篇機器人文章實際上是正確的: 這樣的更新對於需要盡快獲取此資訊的最終讀者也很有幫助。 另一方面,我們看到了許多機器生成內容的“黑帽”實現。 多年來, Google一直在「自動生成不提供附加價值的頁面」的旗幟下譴責使用馬可夫鏈來產生文字以輕鬆旋轉內容。 特別有趣的是「無附加價值」的含義,這對某些人來說主要是一個混淆點或灰色地帶。 LLM 如何增加價值? 由於 GPTx大語言模型(LLM) 和經過微調的人工智慧聊天機器人ChatGPT引起的關注,人工智慧內容的受歡迎程度飆升,後者改善了對話互動。 在不深入研究技術細節的情況下,關於這些工具有幾個要點需要考慮: 生成的文字基於機率分佈 ChatGPT 是一種生成式人工智慧 當您理解這兩點時,您會發現像 ChatGPT 這樣的工具沒有任何傳統知識或「知道」任何東西。這個缺點是所有錯誤或所謂的「幻覺」的基礎。 大量記錄的輸出證明了這種方法如何產生不正確的結果並導致 ChatGPT 反覆自相矛盾。 考慮到頻繁產生幻覺的可能性,這引發了人們對人工智慧書寫文本「增值」的一致性的嚴重懷疑。 根本原因在於法學碩士產生文本的方式,如果沒有新的方法,這個問題就很難解決。 這是一個至關重要的考慮因素,特別是對於「你的金錢,你的生活」(YMYL) 主題,如果不準確,可能會嚴重損害人們的財務或生活。 今年,Men’s Health和CNET等主要出版物被發現發布了人工智慧生成的與事實不符的信息,凸顯了這一擔憂。 出版商 […] …