《華爾街日報》(WSJ)周四 (4 日) 報導,美國聯邦貿易委員會 (FTC) 正準備要求多家科技公司提交資料,調查人工智慧 (AI) 聊天機器人對兒童心理健康的影響。知情人士表示,OpenAI、Meta(META.US) 及 Character.AI 等業者都在名單之列,這項行動已獲白宮批准,顯示華府對 AI 快速擴散帶來的潛在風險日益警惕。
AI 聊天機器人風險引關注
FTC 計劃評估 ChatGPT 等聊天機器人是否對兒童造成心理傷害,並將發函要求業者提供內部文件。近期多起青少年與 AI 聊天機器人互動後自殺的案例,引發家長與倡議團體強烈關注。第一夫人梅蘭妮亞將於周四主持一場以教育安全使用 AI 為主題的會議,她今年稍早也推動立法打擊深偽 (Deepfake) 影像。
這些案例凸顯監管需求的急迫性。兩家網路安全非營利機構最近的研究發現,Character.AI 的聊天機器人平均每五分鐘就會與註冊為兒童的帳號發生一次不良互動,雖然公司回應此結果並非代表典型使用情況,但承諾會與專家和監管單位加強合作。
科技巨頭與政策博弈
OpenAI 執行長阿特曼 (Sam Altman)、Meta 執行長祖克柏(Mark Zuckerberg) 與微軟 (MSFT.US) 執行長納德拉 (Satya Nadella) 都將出席在白宮玫瑰園舉行的活動與晚宴。這場聚會反映出,AI 監管正逐漸從理念討論走向具體政策行動。
白宮官員表示,川普政府一方面要確保美國在 AI、加密貨幣等尖端技術領域維持領先地位,另一方面也不能忽視公共安全與兒童福祉。白宮發言人德賽 (Kush Desai) 指出:「川普總統承諾要鞏固美國在未來科技上的主導地位。FTC 與整個政府團隊都將致力於此,同時確保美國人民的安全與福祉不受損害。」
不過,行政部門內部對於監管仍有分歧。一些官員擔心,對 AI 聊天機器人祭出嚴格規範可能拖慢美國企業腳步,讓中國在技術競賽中取得優勢。
企業因應與法律風險
在監管壓力升高之際,科技公司陸續推出新措施。OpenAI 計劃推出具家長監控功能的青少年帳號,允許家長綁定帳號並接收系統警示。該公司同時面臨法律挑戰,一名青少年與 ChatGPT 發展出親密關係後自殺,父母已對公司提告。
Character.AI 同樣遭遇訴訟,一名母親指控該公司未能阻止其子與聊天機器人討論自殺話題。Meta 則因旗下 AI 聊天功能允許與未成年進行感情對話而遭議員批評,近期已增加限制,禁止其 AI 回應未成年用戶在自殘、飲食失調與浪漫互動等敏感話題上的提問,並限制青少年使用特定 AI 角色。
長期以來,美國國會多次嘗試推動更嚴格的網路安全立法,但成效有限。科技公司雖已提出一些安全措施,但同時持續遊說反對部分法案。FTC 此番行動,代表監管單位正試圖補足立法空缺,為後續更具約束力的規範鋪路。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網