OpenAI 是人工智能技術開發的領導者,目前正成爲數據權利組織 Noyb 在奧地利提起的一項隱私投訴的焦點。該投訴指控 OpenAI 的 ChatGPT 傳播有關個人的虛假信息,並可能違反歐盟隱私法。
該投訴由 Noyb 於 4 月 29 日提起,指控 OpenAI 未解決其 AI 聊天機器人 ChatGPT 提供的有關匿名公衆人物的信息不準確之處。
儘管該模型提出了要求,但OpenAI拒絕更正或刪除不準確的數據,也沒有透露其訓練數據的來源。
這種拒絕可能違反嚴格的歐盟數據保護法規,該法規旨在保護個人的個人信息並確保數據的準確性。
Noyb的投訴凸顯了人工智能領域的一個重大挑戰:技術進步與個人隱私權之間的平衡。
歐盟《通用數據保護條例》(GDPR)規定,個人數據必須準確,並在必要時保持最新;必須採取一切合理措施確保及時刪除或糾正不準確的個人數據。
Noyb 數據保護律師 Maartje de Graaf 表示:“如果一個系統不能產生準確、透明的結果,就不能用它來生成個人數據。”
技術必須遵循法律要求,而不是相反。”這句話強調了法律對人工智能技術的期望,即人工智能技術不僅要提高能力,還必須符合保護個人權利的既定法律框架。
奧地利數據保護機構正在調查 OpenAI 的數據處理方法,特別是它如何確保其大型語言模型處理的個人數據的準確性。
此次調查可能爲整個歐盟如何處理人工智能領域的數據準確性問題樹立先例。
Noyb 是“None of Your Business”的縮寫,總部位於維也納,以致力於執行歐盟數據保護標準而聞名。該公司的戰略重點是那些對歐洲數字權利具有廣泛影響的案件。
在歐洲,一項研究顯示微軟的 Bing AI 聊天機器人(更名爲 Copilot)在德國和瑞士的地方選舉期間提供了誤導性信息,也引發了類似的擔憂。
甚至連谷歌的 Gemini AI 也因生成不準確和有偏見的圖像而受到批評,促使谷歌道歉並承諾更新模型。
這些例子說明了將人工智能融入日常應用的挑戰越來越大,其中信息的準確性和對隱私法的遵守變得至關重要。
Noyb 對 OpenAI 的投訴結果可能會對人工智能開發商產生重大影響,可能要求他們實施更嚴格的數據準確性和透明度措施,以遵守歐盟法律。
隨着人工智能技術越來越融入社會,OpenAI 等開發商面臨的挑戰是確保他們的產品不僅能突破技術可能性的界限。