趨勢排行
掌握趨勢,領先排序。

Meta Ray-Ban智慧眼鏡私密影像外流肯亞人工審查引爆隱私爭議

雲端上的貓2026-03-06 01:04
3/6 (五)AI
AI 摘要
  • 這項由Meta委託Sama公司執行的資料標註作業,目的在於優化AI視覺辨識系統,卻因自動隱私遮蔽技術頻繁失效,導致數千名肯亞外包員工被迫直擊西方用戶的極度私密畫面,包括如廁、裸露、性行為乃至銀行卡密碼等敏感資訊。
  • 非洲外包中心直擊:智慧眼鏡影像審查內幕 當使用者喚醒Ray-Ban智慧眼鏡的Meta AI功能,透過語音指令要求辨識眼前物品時,裝置會自動捕捉影像並回傳至Meta伺服器進行處理。
  • 維也納資料保護律師Kleanthi Sardeli指出,Meta在使用者條款中雖然埋有「部分AI互動可能接受人工審查」的模糊字句,但這種告知方式完全不符合GDPR要求的「明確、具體且知情同意」原則。
  • 產業結構性問題:AI訓練背後的人力血汗 這起事件不僅暴露了Meta的技術與管理疏失,更揭開了整個AI產業依賴廉價勞動力的殘酷現實。

根據瑞典媒體《Svenska Dagbladet》與《Göteborgs-Posten》跨國調查報導,Meta旗下Ray-Ban智慧眼鏡所拍攝的用戶日常影像,正被大規模傳送至肯亞首都奈洛比的外包公司進行人工審查。這項由Meta委託Sama公司執行的資料標註作業,目的在於優化AI視覺辨識系統,卻因自動隱私遮蔽技術頻繁失效,導致數千名肯亞外包員工被迫直擊西方用戶的極度私密畫面,包括如廁、裸露、性行為乃至銀行卡密碼等敏感資訊。事件曝光後,Meta僅以「遵循服務條款」輕描淡寫回應,引發歐盟資料保護法規與全球隱私權倡議團體的強烈質疑。

戴著智慧眼鏡的男子,鏡框轉角處鑲嵌微型攝影鏡頭。

非洲外包中心直擊:智慧眼鏡影像審查內幕

當使用者喚醒Ray-Ban智慧眼鏡的Meta AI功能,透過語音指令要求辨識眼前物品時,裝置會自動捕捉影像並回傳至Meta伺服器進行處理。然而,這些包含第一人稱視角的生活紀錄並未在演算法分析後立即刪除,而是被導入另一條隱密的資料流,送往位於東非的Sama公司奈洛比分公司。這家以「道德AI外包」為號召的企業,實際上聘僱了數千名時薪僅有1.5至2美元的資料標註人員,他們的工作內容是為海量影像中的每個物件手動繪製邊框、添加標籤,從咖啡杯、貓咪到汽車型號,無一不須經過人眼確認。

這種人力密集型的資料處理模式,是當前AI產業鏈中不可或缺卻鮮少被公開討論的環節。標註人員每日必須在嚴格的生產力指標下,連續八小時盯著螢幕,處理超過千張以上的影像。Sama員工向媒體透露,他們接觸的影像來源多元,除了使用者主動觸發的AI辨識請求,更包含智慧眼鏡在待命模式下意外錄製的片段。由於Ray-Ban智慧眼鏡設計強調隨時待命(always-on),只要感應到特定語音指令或手勢,便可能自動啟動錄影功能,這使得大量非預期的私密場景也被納入審查範圍。

更令人擔憂的是,這些外包員工在入職時雖簽署了嚴格的保密協議,但公司提供的隱私保護訓練卻極為有限。他們被要求不得與同事討論工作內容,也不得對外揭露任何影像細節,但對於如何處理極度敏感的個人資料,卻沒有明確的標準作業流程。這種資訊不對稱的權力結構,使得處於產業鏈最底層的標註人員,既成為隱私侵害的目擊者,也成為系統性壓迫下的沈默共犯。

演算法防線崩潰:用戶隱私全面失守

此次爭議的核心技術失靈,在於Meta過度信賴的自動隱私遮蔽演算法。理論上,系統應在影像傳送至人工審查前,自動偵測並模糊處理人臉、裸體、文件等敏感內容。然而,根據多位Sama員工的證詞,這道數位防線在實際運作中失效率高達30%至40%,特別是在光線不足、快速移動或構圖複雜的場景下,演算法幾乎完全無法發揮作用。

這意味著標註人員經常必須直面使用者最私密的時刻。員工描述他們曾看過用戶在浴室鏡子前全裸刷牙、與伴侶的親密行為、甚至坐在馬桶上如廁的清晰畫面。除了身體隱私,財務安全也面臨重大威脅。有員工指出,他們經常能清楚看見用戶錢包內的信用卡卡號、有效期限、安全碼,或是電腦螢幕上顯示的銀行帳戶密碼。這些資訊若被惡意利用,將造成難以估計的損失。

一位不願具名的Sama資深員工向調查記者表示:「我們能看到一切,從客廳擺設到裸體身軀。如果用戶真正知道自己錄下了什麼,又會被誰觀看,他們絕對不敢再使用這款眼鏡。」這句話道破了科技產品設計中的致命缺陷——開發者假設使用者完全理解並接受所有風險,但實際上多數人對於「智慧」裝置的資料流向一無所知。當硬體越來越貼近人體、越來越無縫融入生活,隱私侵害的風險也呈指數級增長。

科技巨頭法律灰色地帶:用戶知情同意存疑

面對媒體的嚴厲指控,Meta官方回應顯得避重就輕、缺乏誠意。發言人僅強調公司「嚴格按照服務條款處理所有資料」,並未正面說明自動打碼系統的失效率,也未提出具體的改善時程。這種標準化的公關辭令,在歐盟《一般資料保護規範》(GDPR)的框架下,顯然難以通過合法性檢驗。

維也納資料保護律師Kleanthi Sardeli指出,Meta在使用者條款中雖然埋有「部分AI互動可能接受人工審查」的模糊字句,但這種告知方式完全不符合GDPR要求的「明確、具體且知情同意」原則。當使用者透過語音喚醒AI助手時,他們的認知僅限於獲得即時辨識結果,根本無法預見眼鏡上的微型鏡頭正在錄影,更不可能想像這些畫面會被傳送到地球另一端,供素未謀面的陌生人逐格檢視。

法律專家進一步分析,智慧眼鏡的隱私風險遠高於智慧型手機。手機通常置於口袋或桌面,使用時具有明確意圖;但眼鏡是全天候貼近臉部的穿戴裝置,它所捕捉的視角與使用者雙眼所見幾乎完全一致。當你走進臥室、浴室,或打開保險箱時,只要AI處於待命狀態,任何意外觸發都可能將最私密的空間轉化為科技巨頭的免費訓練素材。這種不對等的資訊蒐集方式,已經觸及了基本人權的底線。

產業結構性問題:AI訓練背後的人力血汗

這起事件不僅暴露了Meta的技術與管理疏失,更揭開了整個AI產業依賴廉價勞動力的殘酷現實。從自駕車的街景辨識到醫療影像分析,所有號稱「智慧」的演算法,在開發初期都需要大量人類進行「標註」——也就是教導機器「這是什麼」。這些工作被刻意外包至肯亞、印度、菲律賓等勞動成本低廉的國家,形成一條隱形的數位血汗供應鏈。

Sama公司雖然對外宣稱提供「有尊嚴的數位工作」,但實際工作環境卻充滿壓迫性。員工必須在監視器鏡頭下工作,每小時的標註量被精確計算,未達標者將面臨減薪或解僱。更諷刺的是,這些負責保護他人隱私的工人,自身卻處於毫無隱私的工作環境。他們的心理健康也長期被忽視,每天暴露在大量暴力、色情與創傷性影像中,卻沒有獲得相應的心理諮商支援。

這種剝削結構反映了科技發展的悖論:當矽谷工程師享受高薪與自由工作環境時,讓AI「變聰明」的基礎工作卻由全球南方的低薪勞工承擔。Meta每年投入數百億美元研發AI技術,卻不願花費相應成本改善資料保護機制,或提高外包員工的待遇。這種利潤私有化、風險社會化的商業模式,正是當代數位資本主義最黑暗的面向。

未來挑戰:智慧穿戴裝置的隱私困境

隨著智慧眼鏡市場競爭白熱化,Google、蘋果、三星等巨頭皆傳出正在開發類似產品,這起事件為整個產業敲響了警鐘。端側運算(On-device AI) 技術雖被視為終極解方——讓資料在裝置本地處理,無需上傳雲端——但現階段硬體效能與演算法成熟度仍不足以支撐複雜的視覺辨識任務。在技術突破之前,如何確保雲端訓練資料的純淨度與匿名性,成為所有廠商必須面對的嚴肅課題。

專家建議,科技公司應立即採取多項補救措施:首先,強化自動偵測系統的準確率,在無法達到99%以上成功率前,應暫停所有涉及私密空間的資料蒐集;其次,建立真正透明的同意機制,讓使用者明確知道何時被錄影、資料將被如何使用;第三,改善外包員工的工作條件,提供合理薪資與心理支持;最後,引入第三方稽核機制,定期檢視資料處理流程的合規性。

對消費者而言,這起事件也提醒我們重新思考「便利性」與「隱私權」的權衡。當裝置越智慧,它對個人生活的滲透就越深。在缺乏強力法律規範與企業自律的現況下,最安全的做法或許是回歸基本:在敏感場所徹底關閉裝置,或選擇不具備雲端錄影功能的傳統產品。科技進步不應以犧牲基本人權為代價,而這場發生在肯亞的隱私風暴,正是我們重新奪回數位主權的關鍵時刻。