Privacy, filter bubble ed esperienza

0

Angelo Pesce ci ha scondiviso sul gruppo Facebook un suo post in cui riflette sulla relazione tra le problematiche relative alla privacy online, le filter bubble, e il fare esperienza nei propri ambiti di competenza.


C’è chi sta già studiando make up particolari per evitare le tecniche di riconoscimento facciale

Secondo Angelo la privacy online non è un problema così allarmante come viene dipinto, perché alle corporazioni non interessa granché delle nostre robe private in quanto singoli.

Quello che interessa alle corporazioni è l’aggregato delle nostre preferenze d’acquisto, in modo da poterci poi vendere roba nella maniera più efficace possibile. Chi siamo come singoli va al di là dei loro obiettivi, e comunque vengono messe in atto tecniche specifiche per anonimizzare quanto più possibile le nostre identità individuali.


Illustrazione di Ellen Porteus

Su questo punto non sono sicuro di essere totalmente d’accordo, ma il nodo della questione per Angelo è che, al di là delle paranoie sulla privacy, l’effetto vero e palpabile della raccolta dati che viene effettuata su di noi è che poi queste tecniche vengono usate per proporci solamente ciò che più ci aggrada, non solo nei banner pubblicitari, ma anche nella fruizione delle news e dei contenuti sui social network.

In altre parole, il problema della privacy online non è quello di farci vivere in un futuro distopico alla 1984, ma di aver favorito l’ascesa delle filter bubble, la cui distorsione finale potrebbe essere quella di renderci consumatori passivi (ma sempre coccolati e vezzeggiati) da spremere a 360 gradi grazie ad algoritmi di vendita e di engagement sempre più sofisticati (cosa che interessa anche il lato gaming, si pensi alle tecniche di monetizzazione dei F2P). Da questo punto di vista la similitudine è più con le distese di esseri umani “coltivati” in Matrix.

Alla filter bubble è poi collegato il problema del confirmation bias, per cui tendiamo sempre a cercare conferme a ciò che già sappiamo, conferme che gli algoritmi sono felicissimi di darci, ma che in ultima analisi rischiano di renderci stagnanti dal punto di vista intellettuale.

Il più grande pericolo non è rendersi conto di non sapere qualcosa, ma illudersi di sapere già tutto!

Link: Privacy, bubbles, and being an expert.

Comments are closed.