
商傳媒|責任編輯/綜合外電報導隨著人工智慧(AI)技術的快速發展,其潛在風險與倫理議題日益受到重視。OpenAI 執行長 Sam Altman 近期在印度舉行的 AI 高峰會上,針對訓練和運行生成式 AI 模型所需的水、電力和礦產資源等問題,以反諷的言論回應,引發了關於 AI 發展與人類社會關係的討論。
Altman 表示,訓練人類也需要大量的時間和資源,暗示 AI 發展也應被允許投入相應的資源,以達到與人類相似的能力。然而,這種將 AI 與人類相提並論的觀點,以及矽谷科技巨頭對於 AI 取代人類工作的自信,已在西方社會引發批評。
《大西洋》月刊(The Atlantic)曾以「Sam Altman 正在失去對人性的掌握」為標題,評論 Altman 在新德里的發言。
批評者認為,這些科技巨頭往往忽視民主、環境、智慧財產權、人權和勞工權益,將其視為技術發展的阻礙。因此,他們傾向於支持右翼甚至法西斯領導人,期望藉此加速實現技術統治社會的目標。
此外,AI 發展所需的龐大資料中心也引發了環境問題的擔憂。這些資料中心消耗大量的水和電力,對環境造成負擔。儘管資料中心在建設階段能提供就業機會,但完成後實際僱用的人數相對較少。
儘管有媒體報導指出,生成式 AI 可能導致大規模失業,但 Cognizant 首席 AI 長 Babak Hodjat 向路透社(Reuters)表示,AI 工具將取代大型 IT 服務公司的說法「過於誇大」。包括塔塔顧問服務公司(Tata Consultancy Services)和威普羅公司(Wipro)在內的其他 IT 服務公司也表示,AI 將提升而非降低軟體服務公司的作用。
印度資訊科技和資訊科技服務業僱員聯盟(Union of IT and ITeS)秘書長 Alagunambi Welkin 指出,企業裁員或重組的主要原因並非 AI,而是以 AI 為名義進行的成本削減。他認為,AI 將取代大量工作以及不再需要開發人員的說法是「牽強附會」。
倫敦國王學院(King’s College London)教授 Kenneth Payne 的一項研究顯示,在模擬戰爭遊戲中,OpenAI、Anthropic 和 Google 的領先 AI 在 95% 的情況下選擇了核選項。這項研究突顯了在重大決策中過度依賴 AI 的潛在風險。
面對 AI 的快速發展,我們必須思考如何信任人工智慧,以及在 AI 犯下致命錯誤時,誰將承擔責任。無論如何訓練,生成式 AI 仍然只是一種工具,我們不應忘記這一點。


