數據隱私/模型偏見現風險 GAI聯邦學習助資料治理

作者: 吳心予
2024 年 12 月 03 日
生成式人工智慧(GAI)的快速發展是雙面刃,為產業帶來亮眼的應用進展,然而假資訊、模型偏見與資料管理等風險也隨之出現。面對AI生成的惡意內容,用生成式AI偵測與防範,可有效辨別假資料。在模型訓練方面,來自不同國家的訓練資料會造成模型偏見,因此各國開始發展主權模型,訓練符合當地需求的生成式AI。另一方面,聯邦學習技術的發展,確保訓練資料保留在擁有者手上,可望有效解決資料治理的挑戰。...
》想看更多內容?快來【免費加入會員】【登入會員】,享受更多閱讀文章的權限喔!
標籤
相關文章

繁中生成式AI落地 AI Labs產業年會探討台灣優勢

2025 年 01 月 23 日

ChatGPT再掀新高潮 科技廠爭搶生成式AI商機

2023 年 06 月 06 日

生成式AI全面滲透 以軟帶硬2.0來勢洶洶

2024 年 12 月 27 日

生成式AI應用場景多 研華優先鎖定戰情應用

2024 年 12 月 30 日

本地思考的力量:邊緣AI如何顛覆智慧分配格局

2025 年 05 月 15 日

SMART Modular DRAM產品總監Arthur Sainio:CXL擴充記憶體模組降低AI成本

2025 年 05 月 06 日
前一篇
多模態/AI Agent多點開花 生成式AI生態系漸成型
下一篇
IAR升級IAR C-SPY除錯器