「有人利用了演算法,遮蔽了多角度來的訊息。很多惡是人為造成的,尤其是利用了科學、科技手段、技術能力後,那造成的惡比普通人造成的惡要大。」鐘睒睒說。
01
農夫山泉鐘睒睒語出驚人
「我仍不希望大家去喝綠瓶水(純凈水),它就是不值錢!」
「我看不起直播帶貨的企業家,你可以做更有價值的東西。」
「有人利用了演算法,遮蔽了多角度來的訊息。很多惡是人為造成的。」
……
11月19日晚,農夫山泉創始人鐘睒睒在江西贛州出席活動時談及今年上半年遭遇的網絡暴力、做綠瓶水背後的故事以及對網絡直播的看法,他一一做了解釋和回應。值得註意的是,當被問及一系列熱點話題時,鐘晱晱也積極回應。
相較於走流程式的訪談,鐘晱晱投擲的一些話語足稱得上「語出驚人」了,尤其是對農夫山泉「小綠瓶」和「網絡演算法」兩個話題的表達,快速在互聯網上發酵。
2024年4月底,農夫山泉推出了純凈水「小綠瓶」,並采取低價行銷策略,12瓶的包裝最低只賣9.9元,這究竟是農夫山泉應對之前網絡攻擊的臨時策略,還是長期性的布局?
對此,鐘睒睒表示,農夫山泉一開始做的就是純凈水,而純凈水是甜的,所以有了「農夫山泉有點甜」的廣告,後來了解到礦物質對人體的重要性後,他就要求停止生產純凈水,全部生產天然水。
「現在有人說農夫山泉造謠、不甜了,那是因為水裏的礦物質——如鈣和鎂,是苦澀的味道。」鐘睒睒坦言,上半年推出「小綠瓶」(純凈水)是意氣之舉,他仍然不希望消費者去喝綠瓶水,所以定價上和天然水拉開了差距。他想告訴大家 :「紅瓶水(天然水)就是值這個錢。」
當然,相較礦物質和健康,我們更關註的還是鐘晱晱對於互聯網演算法的態度。
采訪中,鐘睒睒提到,今年3月,農夫山泉和他本人受到了自公司成立以來最為嚴重的一次網絡攻擊。他認為,這一事件背後,是演算法遭到利用,對網友進行了多角度的資訊遮蔽。
「當你開啟這些平台,看到的總是同樣的內容。有人在利用技術手段,這些人造成的傷害遠遠超過普通人所造成的傷害。需要社會去遏制,需要政府站出來主持公平。」 鐘睒睒認為。
他還質疑,在謠言中,是否都需要一個反派角色來制造對立,正如好萊塢電影中常見的那樣?如果缺乏這樣的對立,一些平台似乎難以持續吸引流量,如果是這樣,他認為,這樣的平台是極其惡劣的。
「演算法的惡是有知識的人生產的,不是底層老百姓,老百姓仍然是受害者,那些罵鐘睒睒的人不是既得利益者,他們也是受害者,他們因為不了解真相而懷有仇恨,實際上,我們需要的是良好的營商環境和對企業家的尊重。」 鐘睒睒說。
02
演算法作惡
不知不覺被帶節奏的網民
提及互聯網演算法作惡,很多人其實第一反應是外賣、網約車,強大的演算法讓打工人成為了一種被高度控制和剝削的勞動形式。
外賣平台無疑是最典型的存在。讓打工人成為了一種被高度控制和剝削的勞動形式。在數碼資本主義階段,智能演算法成為勞動者勞動過程的主要管理者和監督者,透過遊戲化勞動、趕工遊戲等方式模糊了資本家對勞動者的剝削事實,使勞動者沈浸於虛假的滿足感中。
此外,平台經濟中的演算法管理不僅限制了工作者的行為自主性,還透過演算法控制策略操縱這些方面,導致勞動者在行為上的自主性受到限制。
在數碼資本主義階段,智能演算法成為勞動者勞動過程的主要管理者和監督者,透過遊戲化勞動、趕工遊戲等方式模糊了資本家對勞動者的剝削事實,使勞動者沈浸於虛假的滿足感中。
然而,大多數人更多時候其實覺得「演算法作惡」同自己並沒有太大關系,畢竟無論是外賣還是網約車,消費者更多時候反而感受到的還是演算法帶來的便捷數碼生活體驗,可事實真的如此嗎?當鐘晱晱
這樣的富豪都能感受到「演算法作惡」帶來的資訊遮蔽和不公時,其對演算法的「炮轟」更多是指當下隱隱存在的「演算法歧視和偏見」問題。
科技沒有國界,演算法也沒有情緒,可控制演算法或者培育演算法的人會有。
演算法歧視和偏見是當前人工智能領域中一個重要的倫理問題,其根源和表現形式多樣且復雜。演算法歧視通常指的是在演算法決策過程中,由於設計者、訓練數據或人機互動中的偏見,導致對某些群體產生不公平或有偏向性的結果。
演算法偏見的產生有多個原因。首先,數據生產環節的偏差是一個主要原因,如果訓練數據樣本代表性不足或存在主觀偏好,那麽演算法在處理這些數據時就可能復制或放大這些偏見。其次,演算法模型設計與訓練過程中的不當操作也可能導致偏見,如模型可能將少數族群視為離散數據或噪音,從而埋下社會歧視的風險。
此外,演算法與外界環境互動時,負面數據有機會被利用,形成反饋迴圈,進一步強化原有社會偏見。
具體在新聞傳播方面,演算法在設計和執行過程中可能繼承並放大社會中的偏見,從而導致新聞報道的不公正和不對稱,而最為典型的就是 Facebook的「偏見門」事件。
事件的起因是一名Facebook前合約工(非正式員工)向科技網誌網站Gizmodo爆料,稱他們在Facebook以新聞專業人員的身份進行工作時,發現Facebook的新聞趨勢榜並非完全由演算法自動完成,而是存在人為幹預。爆料者指出,編輯團隊可以有意地讓某些新聞變得重要,而讓其他新聞變得不重要,甚至有意打壓保守傾向的媒體及其報道。
Gizmodo在2016年5月9日發表了這篇爆料文章,迅速引起了媒體圈的騷動。美國國會方面也要求Facebook正式解釋此事。Facebook的高管們迅速出面回應,否認存在人為操縱和偏見,但這一回應並未平息輿論的質疑。
隨後,有媒體獲得了Facebook的內部檔,這些檔進一步證實了編輯團隊在熱門話題選擇上的自由裁量權。英國【衛報】率先刊發了這些泄露的檔,並據此對Facebook提出了明確的質疑。
在輿論壓力下,Facebook於5月12日首次對外公布了其內部編輯守則。該守則顯示,熱門話題會首先經過演算法自動篩選,然後再由熱門話題團隊進行第二輪稽核。但這一解釋並未完全消除公眾的疑慮。
顯然,當十年前社交平台都能用演算法引導社會輿論、引導社會共識時,演算法和大數據套用已經不知道叠代多少次的今天,各個社交平台真的能確保自己的演算法或者說演算法裁量標準沒有一點偏向嗎?
不過相較引導社會輿論,互聯網演算法其實更喜歡幹的事兒是——演算法推薦!
03
演算法推薦打造資訊繭房
評論區也能量身客製
購買一款健身器材後,互聯網平台總是給我推薦一些運動課程或小影片;查詢一款家常菜做法後,影片平台總是給我推薦一些美食博主或烹飪影片;留心珠海航展後,各種軍事博主就成為我新聞App或影片號的高頻推播……
互聯網演算法想要懂我們其實並不難,短影片平台的推薦演算法會根據使用者的行為數據(如觀看歷史、點贊、評論、分享等)來分析使用者的喜好,並據此推薦相關的內容。這種個人化推薦不僅提高了使用者的滿意度和留存率,還增加了平台的商業價值。
此外,推薦系統還會考慮內容本身的特征,如影片風格、創作者特點、熱門話題等,以確保推薦內容的多樣性和新穎性。
這種推薦機制本身是為了給使用者提供更好的服務,但卻加速了互聯網資訊繭房的構建。
不少人對資訊繭房的理解還停留在資訊推播層面,現代網絡平台透過演算法對使用者的行為和興趣進行分析,從而推播客製化的資訊。這種精準推播雖然提高了使用者體驗,但也加劇了資訊繭房的形成。
可隨著互聯網演算法持續叠代,即便是同一內容,不同使用者看到的評論區其實也是「可控」的。
不同賬號在觀看情侶吵架影片時,評論區的內容存在顯著差異。即使嘗試以不同身份參與討論,也無法改變評論區的順序,這表明演算法在客製評論區內容時具有一定的封閉性。
左男右女
評論區的演算法客製化現象意味著同一內容下,不同使用者的評論區展示的內容可能完全不同。評論區的演算法客製化導致了觀點碰撞的場所變成了單一觀點的支持場所,這使得不同立場之間的隔閡、對立、誤解與撕裂進一步加劇。
評論區本應是不同觀點自由表達的場所,但演算法操控下,每個使用者優先看到的是與自己意見一致的同質化評論,這不僅限制了使用者的認知,還強化了偏見。
04
AI時代
使用者與演算法的相互馴化
隨著AI時代拉開帷幕,使用者與演算法的雙向影響變得尤為突出。
AI演算法透過個人化推薦和智能推播等方式,極大地改善了使用者的線上體驗。
AI演算法能夠根據使用者的瀏覽歷史、搜尋記錄和偏好,提供客製化的搜尋結果和產品推薦,從而提高使用者滿意度和參與度。這種個人化服務不僅提升了使用者體驗,還推動了電子商務的發展,透過精準的推薦增加了使用者的購買意願。
然而,AI演算法也存在潛在的負面影響。
一方面,演算法可能會放大使用者的偏見,導致使用者喜好趨同現象。當使用者在電影評分網站上給某部電影打分後,系統會推薦類似風格的電影,這可能導致使用者逐漸失去探索新內容的動力。另一方面,過度依賴演算法推播的內容可能會影響使用者的情緒和價值觀,例如推播不健康或不適當的資訊,甚至可能引發使用者對演算法的抵觸情緒。
此外,AI演算法在提升使用者體驗的同時,也帶來了私密和安全方面的挑戰。由於演算法需要收集大量使用者數據以進行個人化推薦,這引發了使用者對數據私密的擔憂。因此,企業在使用AI演算法時必須確保透明度和公平性,以增強使用者對系統的信任。
值得註意的是,使用者也在積極地與AI演算法互動,以最佳化自己的使用體驗。
一些年輕使用者透過學習和了解演算法的工作原理,主動調整自己的行為以獲得更好的推薦結果。這種互動不僅提升了使用者的自主性,還促進了演算法的改進和發展。
而在使用者和演算法的相互影響過程中,不僅互聯網平台要努力尋找平衡,使用者也需要警惕演算法被有心之人利用。
05
寫在最後
「技術中性」不能等同於「價值中性」
「技術中性」不能等同於「價值中性」,不能讓價值觀成為演算法技術的附庸。演算法推薦毋庸置疑是一個價值觀問題,技術可以沒有價值觀,但是作為技術發明者、操縱者的人,不能沒有價值觀。
近年來,針對演算法推薦引發的諸多亂象,相關監管部門頻頻依法重拳出擊——約談、處罰整改、永久下架、暫停演算法推薦功能等手段多措並舉。然而,現實中卻總能看到這樣的現象:即便不斷地打擊、處罰和整治,卻難以遏制劣質內容「換個馬甲」、變換渠道再次生長。這是為什麽?
首先,演算法決定了內容的展現形式——不論使用者上傳的是文字和圖片,還是影片或直播,演算法都需要將這些抽象出特征,分門別類進行統籌標記。其次,演算法決定讓什麽樣的人群看到什麽樣的內容——演算法推薦分發系統,會按照使用者標簽、興趣點、位置、相似使用者喜愛偏好、線上時間、使用機型等行為細節來設定演算法匹配,實作「不是使用者決定自己想看什麽,而是平台決定使用者能看到什麽」。
同時,演算法推薦不僅是價值觀問題,還是法律問題,需要糾正「流量為王」的價值觀,用積極健康、符合公序良俗的價值觀指引演算法推薦的設計和套用。這表明技術的套用不僅需要技術自身的中立性,還需要法律和社會規範來引導其發展方向。