近日,蘋果公司在其AI策略上邁出了新的一步,但這一舉措?yún)s在開發(fā)者群體中引發(fā)了一定的爭議。據(jù)科技媒體AppleInsider報道,蘋果于本周一宣布了一項名為Apple Intelligence的新訓(xùn)練計劃,旨在為用戶提供更多關(guān)于數(shù)據(jù)使用的選擇權(quán)。
具體而言,Apple Intelligence訓(xùn)練計劃允許iPhone用戶自主決定是否允許蘋果使用其設(shè)備上的數(shù)據(jù)來訓(xùn)練AI模型。這一做法旨在增強用戶對個人數(shù)據(jù)的控制權(quán),同時推動蘋果AI技術(shù)的發(fā)展。蘋果強調(diào),所有的訓(xùn)練過程均將在設(shè)備本地完成,并采用差分隱私技術(shù),通過添加隨機噪聲來保護用戶數(shù)據(jù)的隱私。
然而,這一看似用戶友好的計劃在實施過程中卻出現(xiàn)了波折。特別是在iOS測試版的Bug報告環(huán)節(jié),蘋果要求用戶必須同意將上傳的內(nèi)容用于AI訓(xùn)練,包括Apple Intelligence和其他機器學(xué)習(xí)模型,且沒有提供退出選項。這一要求引起了部分開發(fā)者的不滿。
開發(fā)者Joachim在社交媒體上公開表達了對蘋果這一做法的批評。他指出,蘋果在Feedback應(yīng)用的隱私通知中新增了一項條款,明確說明用戶上傳Bug報告附件時,將默認同意蘋果使用這些內(nèi)容改進產(chǎn)品和服務(wù),包括AI訓(xùn)練。開發(fā)者們認為,蘋果將這一重要條款“淹沒”在大量的隱私信息中,沒有給予足夠的提示和說明,這種做法讓人感到不適。
更令開發(fā)者們感到憤怒的是,他們發(fā)現(xiàn)唯一的回避方式是不提交Bug報告。這顯然與蘋果一直倡導(dǎo)的開放和透明的用戶數(shù)據(jù)政策相悖。開發(fā)者們呼吁蘋果應(yīng)該尊重用戶的隱私權(quán),提供明確的退出選項,而不是在隱私通知中“隱藏”重要條款。
對于開發(fā)者的批評,蘋果目前尚未作出正式回應(yīng)。但這一事件無疑給蘋果在用戶隱私保護方面的形象帶來了一定的沖擊。未來,蘋果如何在推動AI技術(shù)發(fā)展的同時,更好地平衡用戶隱私和數(shù)據(jù)使用之間的關(guān)系,將成為其面臨的一大挑戰(zhàn)。
值得注意的是,盡管存在爭議,但蘋果在AI領(lǐng)域的探索并未因此停滯。隨著技術(shù)的不斷進步和應(yīng)用場景的不斷拓展,AI已經(jīng)成為蘋果未來發(fā)展的重要驅(qū)動力之一。如何在保護用戶隱私的同時,充分發(fā)揮AI技術(shù)的潛力,將是蘋果需要持續(xù)思考和探索的問題。