​AI 模型微調風險難料 專家示警個資安全受衝擊 

圖/本報AI製圖(示意圖)

商傳媒|康語柔/綜合外電報導人工智慧(AI)技術持續發展,各行各業對客製化AI模型的需求也日益增加。然而,AI模型的「微調」(fine-tuning)過程,卻潛藏著難以預測的安全風險,特別可能對個人隱私與資訊安全造成衝擊。

根據《The Washington Post》報導,隨著AI應用場景日益多元,企業為滿足法律、醫療等特定領域的專業需求,必須對既有AI模型進行客製化調整。例如,金融巨頭黑石(Blackstone)、高盛(Goldman Sachs)以及私募基金赫爾曼&弗裡德曼(Hellman & Friedman)等公司,正與AI公司Anthropic(旗下產品包含對話式大型語言模型Claude)合作,探索如何在嚴格的產業規範下運用AI。

民主與科技中心(Center for Democracy and Technology)AI Governance Lab 的主任米蘭達·博根(Miranda Bogen)指出,AI模型的微調過程,其潛在的安全影響難以預測。這意味著,即使是經過嚴謹訓練的基礎模型,一旦為了特定目的進行微調,其行為模式可能產生意想不到的變化,進而引發資料洩漏、偏見加劇或提供不準確資訊等問題。

專家警告,當企業將AI應用於處理高度敏感的個資或關鍵業務數據時,微調過程若缺乏足夠的安全考量與驗證機制,將可能導致資料洩漏,甚至影響企業的合規性與聲譽。如何在確保AI模型客製化能力的同時,有效管控其安全風險,已成為業界亟待解決的挑戰,麻省理工學院(MIT)等學術機構也持續關注此一議題。

     

相關新聞

您可能有興趣

即時新聞

熱門新聞