前不久,中央網(wǎng)信辦等四部門聯(lián)合發(fā)布《關(guān)于開展“清朗·網(wǎng)絡(luò)平臺(tái)算法典型問(wèn)題治理”專項(xiàng)行動(dòng)的通知》,核心問(wèn)題就是構(gòu)建“信息繭房”防范機(jī)制,提升推送內(nèi)容多樣性豐富性。
“信息繭房”是哈佛大學(xué)凱斯·R·桑斯坦(Cass R. Sunstein)教授在其《信息烏托邦》一書中提出的概念:它是一個(gè)溫暖、友好的地方,因?yàn)檫@里都是自己喜歡看到和聽到的東西,對(duì)于觀點(diǎn)話題的討論也不過(guò)是自己的回聲。
也就是說(shuō),平臺(tái)算法利用用戶的點(diǎn)擊、瀏覽和搜索歷史,為用戶分配其中一部分信息,再減少、忽略用戶對(duì)其它信息的接觸,構(gòu)建出一個(gè)信息封閉的“黑箱子”:
你看到的,就是算法想讓你看到的;你的想法,也是算法潛移默化影響你的。
那么,在這個(gè)“黑箱子”里,你害怕嗎?
算法也是不斷進(jìn)化的
在互聯(lián)網(wǎng)信息大爆炸的時(shí)代,知識(shí)已經(jīng)變成俯仰可拾的信息流。
用戶的難題不再是“在哪去學(xué)習(xí)知識(shí)”,而是升級(jí)為“如何判斷知識(shí)的真假”,這也給了算法的施展空間。
信息繭房形成的“回音室效應(yīng)”,哪怕你有再小眾的愛(ài)好、再離譜的想法,都能在算法的分配下,找到與你觀點(diǎn)相近的伙伴。
你點(diǎn)贊的圖文和短視頻,都是自己的“回聲”。
每個(gè)人都看到他們樂(lè)意看到的東西,每個(gè)人都能在小圈子里保持“自由”和“快樂(lè)”。哪怕這個(gè)“自由”和“快樂(lè)”只是算法圈養(yǎng)你的柵欄。
更可怕的是,算法是會(huì)進(jìn)化的。
算法1.0版本,是用戶主動(dòng)去選擇和收集,算法根據(jù)協(xié)同過(guò)濾(Collaborative Filtering),挖掘用戶歷史行為,發(fā)現(xiàn)用戶的喜好偏向,并預(yù)測(cè)用戶可能喜好的產(chǎn)品進(jìn)行推薦。也就是購(gòu)物平臺(tái)常見的“猜你喜歡”功能。
等到了算法2.0版本,就有大數(shù)據(jù)的加持,基本無(wú)需個(gè)人收集和選擇了,直接由機(jī)器按你的偏好推送。
不論你是什么種族、什么階層、什么群體、什么樣的觀點(diǎn),算法機(jī)器只讓你看到你想看到的。每個(gè)人都覺(jué)得自己觀點(diǎn)是世界上最正確的,充分滿足并安慰你的精神需求。
當(dāng)然,算法2.0版本不會(huì)承認(rèn)自己打造出來(lái)一個(gè)“信息繭房”,只會(huì)說(shuō)這是“定制化觸達(dá)/垂直化推薦/精準(zhǔn)化投放”的結(jié)果,是合理合法的商業(yè)工具。
抖音/快手的興趣推薦,看似中性的算法,實(shí)際上對(duì)不同群體的影響是截然不同的。
對(duì)于大部分“興趣廣泛”的用戶來(lái)說(shuō),其被推送的內(nèi)容或許是寵物、旅游、數(shù)碼等等,當(dāng)然也包括“黑絲女”和“腹肌男”。至少在當(dāng)下平臺(tái)環(huán)境里,后者比例要遠(yuǎn)大于前者。
對(duì)于現(xiàn)實(shí)生活比較單一、生活內(nèi)容重復(fù)、自控能力不強(qiáng)、信息獲取渠道單一的用戶來(lái)講,這樣的算法推薦對(duì)他們的影響或許是極其負(fù)面的。
并且這類人群覆蓋面極為廣闊,有藍(lán)領(lǐng)、有中老年人、也有低齡階段中小學(xué)生。
他們?cè)谒惴ㄖ拢麄兒苋菀壮撩栽凇昂诮z女腹肌男”繭房之內(nèi),甚至接收到“不合時(shí)宜”的信息。
比如,銀發(fā)族困于養(yǎng)生、健康和短劇,相信土豪真的會(huì)愛(ài)上保潔阿姨;
藍(lán)領(lǐng)們消耗一天體力后,躺在出租房里沉迷擦邊直播間,花光工資也要當(dāng)榜一大哥;
甚至還有一些中小學(xué)生們,過(guò)早接收到不應(yīng)該是當(dāng)齡該看的內(nèi)容。
這些高密度人群如果被算法“毫無(wú)感情僅憑興趣”的推薦,將會(huì)帶來(lái)一連串社會(huì)性問(wèn)題。
紅藥丸?還是藍(lán)藥丸?
如果說(shuō),你只能活在自己想要的世界里,很多人覺(jué)得無(wú)所謂,不就是“奶頭樂(lè)”嗎?我就愿意讓自己輕松一下,逃避一下殘酷的現(xiàn)實(shí)。
那如果說(shuō)算法會(huì)影響到你的認(rèn)知呢?
所謂的“認(rèn)知”,其實(shí)是信息量+處理信息的能力。你信息攝入的越多,那么支撐你認(rèn)知的知識(shí)體系就越有力。
如果你的信息攝入是充滿“誤導(dǎo)”的呢?
比如,現(xiàn)在打開抖音/快手等短視頻App,刷出10條短視頻內(nèi)容。如果10條里面有9條,都是和LGBT運(yùn)動(dòng)相關(guān),那你會(huì)不會(huì)認(rèn)為L(zhǎng)GBT已經(jīng)是社會(huì)主流的性取向?異性戀其實(shí)才是性少數(shù)群體呢?
如果你完成對(duì)這些信息的攝入,形成了認(rèn)知,恭喜你,那么你就迎來(lái)了算法的“下半場(chǎng)”:你如果否定它,就要推翻你的全部認(rèn)知。
來(lái)源:倫敦藝術(shù)大學(xué)UAL實(shí)驗(yàn)短片
有這么一個(gè)諷刺冷笑話,很適合描述現(xiàn)在的算法。
“小學(xué)時(shí)候同學(xué)們都愛(ài)看《西游記》,大家都說(shuō)唐僧袈裟是黑色的,有個(gè)同學(xué)強(qiáng)烈反對(duì),非要說(shuō)是紅色的,氣的班上的同學(xué)打了他一頓,后來(lái)他哭著把我們帶到他家里,我們才赫然發(fā)現(xiàn),這個(gè)世界上原來(lái)還有彩色電視機(jī)。”
是的,當(dāng)你認(rèn)為“黑袈裟”是真理的時(shí)候,“紅袈裟”就是異端、另類、是要被燒死的人,對(duì)不同聲音充斥著排斥,甚至敵視。
如果要讓“黑袈裟”知道真相,就要把他們的認(rèn)知全部擊碎,掀開頭蓋骨,才能真正知道真相到底是什么。
就像是《黑客帝國(guó)》,面對(duì)舒適的算法世界,以及殘酷冷漠的真實(shí)世界,那你會(huì)選擇藍(lán)藥丸,還是紅藥丸?
我相信大部分人都會(huì)選擇一切迎合自己的算法世界,哪怕它支配了你的全部信息。
地主還是農(nóng)奴?
法國(guó)的經(jīng)濟(jì)學(xué)家塞德里克·迪朗(Cédric Durand)寫了一本書叫《技術(shù)封建主義》,他將算法背后的企業(yè)視為“地主”,用戶視為“農(nóng)奴”。
迪朗認(rèn)為,算法和數(shù)字技術(shù)的應(yīng)用,將用戶變成了數(shù)字農(nóng)奴。算法通過(guò)分析用戶數(shù)據(jù),推測(cè)用戶行為,并將其轉(zhuǎn)化為利潤(rùn)。用戶在算法的統(tǒng)治下,失去了自主權(quán)和控制權(quán),按照算法的邏輯進(jìn)行行動(dòng)。這種算法統(tǒng)治的現(xiàn)象,類似于封建社會(huì)中農(nóng)民對(duì)土地的依附,將用戶束縛在數(shù)字平臺(tái)的“領(lǐng)地”之中,無(wú)法逃脫算法的控制。
“地主和農(nóng)奴”最典型的案例,就是外賣騎手和網(wǎng)約車司機(jī)。
他們覺(jué)得自己工作很自由,不受老板的監(jiān)管,想幾點(diǎn)工作就幾點(diǎn)工作,一切完全取決于自己,好像獲得了某種自主權(quán)。
但其實(shí),奴役者只不過(guò)從“企業(yè)老板”轉(zhuǎn)變成了“企業(yè)工具”,除了遵循平臺(tái)算法給出的訂單、路線與價(jià)格,他們別無(wú)選擇。
社會(huì)的輿論壓力,也被巧妙的轉(zhuǎn)移,變成“乘客和司機(jī)”“顧客和外賣員”之間的矛盾,似乎一切的訂單、路線與價(jià)格并不是由算法自主生成的一樣。
一切又回歸到迪朗和《技術(shù)封建主義》的核心主題:我們每個(gè)人在社會(huì)互動(dòng)中形成數(shù)據(jù)不斷成為算法優(yōu)化與決策的“養(yǎng)料”,而社會(huì)互動(dòng)又在被算法的結(jié)果“操縱”。
如果你問(wèn)如何才能擺脫算法的圈禁?
那么只有將選擇的權(quán)利交付于用戶,讓他們主動(dòng)去選擇,而不是被動(dòng)去接受所謂的“定制化觸達(dá)/垂直化推薦/精準(zhǔn)化投放”等商業(yè)行為。
同時(shí),最后還想重復(fù)問(wèn)一遍:
“你是選擇藍(lán)藥丸,還是紅藥丸?”