為了提升服務質素,我們會使用Cookie或其他類似技術來改善使用者的閱讀體驗。如想了解更多請到 這裡>。如果接受請點確認按鈕進入網站。
該報告稱,新型人AI和協作工具的廣泛普及,可能會令一些公司面臨數據洩露和法律風險。他們擔心黑客可能會利用聊天機器人獲取敏感的企業信息或對企業發動攻擊。此外,目前投餵給AI的機密信息未來也有可能會被人工智能公司利用。
包括微軟和Alphabet在內的大型科技公司都在爭相通過生成式AI技術改進ChatGPT和搜索引擎,利用互聯網上獲取的數據訓練他們的模型,從而為用戶提供一站式問答服務。報告稱,如果使用機密或私密數據來投餵這些工具,今後將很難刪除相關信息。
該報告寫道:「使用生成式人工智能的企業,其敏感信息、知識產權、源代碼、商業機密和其他數據,可能會通過用戶直接輸入或API等渠道被他人獲取和處理,其中包括客戶信息或私密信息以及機密信息。」Team8將這一風險標記為「高風險」。他們認為,如果採取適當的防範措施,該風險「可控」。
Team8在報告中強調,AI的查詢並不會被輸入大預言模型來訓練人工智能,而與之相悖的是,最近的報告聲稱這樣的提示信息有可能會被其他人看到。
美國聯邦貿易委員會(FTC)官員周二表示,該機構將重點關注濫用人工智能技術違反反歧視法或存在欺騙行為的公司。