In questo numero: i segni emergenti della sorveglianza; chi usa l’odio online; il reset del capitalismo; l’evoluzione della Media Ecology con i digital twins, gli assistenti vocali e la ridefinizione delle piattaforme dei media sociali.
We couldn’t forget about racism. Americans show it openly. Racism is resisting progress in large parts of the world even in the self-called civilized world. In Italy there is a lot of it under the cover of an often hypocrite image of good Italians, which one can scratch easily to find large social groups who are afraid of diversity, who hate immigrants, who abandon themselves to the truly incredible, amnesiac contempt for the Jews, for the Roma, and for those who do not have white skin. Polls suggest that 40% of Italians would vote for the radical right if they had to vote tomorrow. What’s there in the media ecology that helps hate survive and even grow?
Answers are less than easy. I have a job to do for the government that is about hate online. So I switch to Italian. And if you want to go ahead with English, just get down a few paragraphs.
La sorveglianza inefficiente
Il villaggio è un luogo nel quale tutti sanno tutto di tutti. E il villaggio globale dovrebbe essere almeno lo stesso. Invece il problema è che alcuni sanno tutto di tutti mentre altri non sanno nulla di quegli alcuni.
L’osservazione dell’asimmetria informativa, come mostra Joseph Stiglitz https://www.nobelprize.org/prizes/economic-sciences/2001/popular-information/ , demolisce la teoria della concorrenza perché rende del tutto implausibile una delle sue precondizioni essenziali: che tutti sappiano tutto di tutti. Nella teoria neoclassica, ovviamente, si rendevano conto che questo è impossibile, ma erano convinti che bastasse avvicinarsi alla migliore informazione per avvicinarsi alla concorrenza. Stiglitz ha mostrato che la concorrenza perfetta, nell’accezione neoclassica, è possibile solo ne c’è perfetta simmetria informativa. Se non c’è questa non c’è quella, punto e basta. Non c’è un sistema un po’ più concorrenziale: ci sono solo sistemi nei quali il mercato non riesce a fare quello che la teoria promette. E uno dei motivi l’asimmetria informativa.
Sarebbe difficile sostenere che ci si avvicina alla concorrenza man mano che la sorveglianza avanza, sulla scorta delle grandi tecnologie digitali.
Privacy international segnala le tecnologie della sorveglianza che la polizia può mettere in campo, anche nei paesi occidentali, per tracciare i manifestanti che protestano. Participare alle proteste di piazza conduce in molti paesi a finire sotto sorveglianza. Le polizie sono in grado, per esempio, di usare strumenti che si fingono stazioni di collegamento alla rete mobile e che quindi riescono a farsi dare dai telefoni tutte le informazioni utili per identificare le persone che li portano addosso. (PrivacyInternational)
D’altra parte, le imprese che hanno chiesto ai lavoratori di lavorare da casa durante la clausura decisa per ridurre il contagio di Covid-19 si sono trovate nella tentazione di adottare strumenti di sorveglianza dei lavoratori. Interguard per esempio è un software che può registrare tutto quello che un lavoratore fa con il computer e produce un video di ogni suo gesto digitale. (Signalvnoise, Fastcompany, Nytimes)
In questo settore, non tutto è tecnologicamente prodotto in America. Dave Gershgorn spiega come la francese Idemia produra il sistema di riconoscimento facciale usato in mezzo mondo per identificare chi accede in paesi stranieri e opera sfruttando i database delle foto dei documenti di identità e vasti registri pubblici di dati biometrici. La società ha appena vinto la commessa per gestire il riconoscimento facciale di 400 milioni di cittadini non europei che transitano in Europa per motivi di lavoro e sono impiegati da aziende non europee. Il progetto dovrebbe essere pronto nel 2022. Idemia ha grandi contratti anche negli Stati Uniti e in Australia. Idemia appartiene al gruppo Thales. (Idemia, Onezero, Thales)
Gli abusi nel campo della sorveglianza sono sempre possibili. Ma pare che la sorveglianza volontariamente accettata dai cittadini che installano una applicazione per il contact tracing che serve a contenere l’epidemia di Covid-19 sia invece, in Italia almeno, totalmente pseudonimizzata. Così impone il Garante per la protezione dei dati personali. E l’intelligenza delle autorità dovrebbe a sua volta garantirlo: un’applicazione che si installa volontariamente e che per essere efficace deve andare almeno sul 60% dei telefoni non deve neppure far sospettare un uso improprio e abusivo. Se fosse obbligatoria potrebbe anche approfittarne, ma a quel punto i cittadini tenterebbero in ogni modo di aggirarla rendendo inutile il sistema e peggiorando le probabilità di tracciamento dei contagi: per questo, la privacy impone che sia una tecnologia volontaria e contemporaneamente alla strategia sanitaria di contenimento conviene garantire la privacy. È un caso in cui la libertà è coerente con l’efficienza. Forse, a ben guardare, ce ne sono molti altri di casi che dimostrano che il senso di libera comunità conduce insieme a resilienza ed efficienza.
Nell’ecologia dei media non si sono solo rapporti predatori e parassitari, ci sono anche le simbiosi. Una vita consapevole nella mediasfera spinge a denunciare i primi e valorizzare gli ultimi.
L’odio e altre trappole
In sintesi: chiunque ha il diritto di odiare chi vuole. E di mentire. E di coltivare sentimenti razzisti. Purtroppo chi si comporta così sta male. Qualche volta rovescia il suo malessere verso gli altri. Fine del discorso? Quasi: ci sono due chiose. Nell’ecologia dei media digitali, esistono incentivi ampi a usare le debolezze altrui per ottenere scopi commerciali e politici di ogni genere. La strumentalizzazione dell’odio è evidentemente una delle forme di propaganda più efficaci. Le sue conseguenze possono essere dirompenti. Il problema è certamente più culturale che normativo: le leggi per contenere le eventuali conseguenze penali di questi fenomeni esistono in gran parte già. Riflettere su queste cose è necessario. Domandarsi se si possa fare qualcosa che abbia un senso è un’esigenza del tutto comprensibile. Trovare risposte è tutt’altro che ovvio. Tra un po’ di tempo il lavoro della commissione incaricata di studiare l’odio online dovrà riprendere i lavori (blog).
Odio, fake news, banalizzazioni, generalizzazioni che fanno di ogni erba un fascio e preludio di ogni razzismo, perdita del senso delle proporzioni, paura, bullismo, intimidazioni, propaganda al posto dell’informazione, e così via. Se ne parla ogni giorno in ogni passaggio storico che genera una condizione endemica di violenza sociale. Se n’è parlato dopo la Prima Guerra Mondiale, fino all’avvento del fascismo. Se n’è parlato quando il razzismo è emerso in tutta la sua orribile potenza in un paese apparentemente tranquillo come l’Italia che si preparava alla Seconda Guerra Mondiale. Se n’è parlato negli anni Settanta, gli anni di piombo. E se ne parla oggi, anche se le forme della violenza attuale sono orrende quando coinvolgono il terrorismo, ma al confronto angosciosamente ridicole quando sono portate avanti dai “cattivi” della politica occidentale. Il che non riduce l’importanza di studiare ciò che avviene: le democrazie sono meccanismi delicati, che vivono anche del rispetto reciproco tra i cittadini. Se questo viene meno, ogni giorno si può demolire qualcosa di importante, fino ad aprire la strada a comportamenti meno ridicoli e molto più angoscianti.
In questa fase in cui molti europei che temono di perdere la democrazia certamente non l’hanno persa, vale la pena di impegnarsi a capire il fenomeno della endemica violenza che permea il dibattito e di dibattere le forme con le quali la non-violenza può farsi valere.
E quindi prima di tutto: di che cosa parliamo quando parliamo di “odio in rete”? Da una parte, l’odio è la conseguenza di un malessere e come tale va compatito, per affrontare le cause della sofferenza che lo genera. Dall’altra parte, può essere una condizione emotiva tra le altre che i maestri della propaganda possono utilizzare per diffondere le loro istanze: l’odio può essere razionalmente indotto e strumentalizzato per hackerare il sistema democratico.
Si può fare qualcosa, si domandano in molti, dalla Commissione europea al governo italiano? È più chiaro quello che non si può fare. È del tutto evidente che non si può impedire di odiare per legge. È del tutto evidente che la propaganda è parte del gioco democratico. Ed è altrettanto evidente che i media digitali possono essere usati per realizzare con particolare efficacia una forma di propaganda basata sulla violenza concettuale, nella quale non c’è solo l’odio, ma appunto anche fake news, banalizzazioni, generalizzazioni che fanno di ogni erba un fascio e preludio di ogni razzismo, perdita del senso delle proporzioni, paura, bullismo, indimidazioni, propaganda al posto dell’informazione, e così via.
ReImagine Europa si occupa di tutto questo con piglio scientificamente attento, grazie alla guida di Manuel Castells. E seguirne le attività può essere interessante: Democracy in a digital society.
Come è possibile che si dedichi tanto tempo a una questione sulla quale c’è poco da fare, dal punto di vista legislativo? Probabilmente perché i cambiamenti in atto sono così radicali, in apparenza, che occorre comprendere meglio la situazione.
Ma che cosa è diverso, in realtà, rispetto al passato?
Sono nato 11 anni dopo la fine della guerra. L’Italia si era appena ripresa e aveva iniziato il suo “miracolo economico”. I segni delle granate erano ancora visibili sui muri di molti palazzi e le bombe inesplose erano ancora pericolosamente nascoste tra le macerie lasciate qui e là dal conflitto. Tra i motivi della guerra degli aggressori italiani, il razzismo è restato ancora più a lungo delle bombe inesplose, tra i sedimenti culturali del paese. Del resto, il fascismo si è inabissato nella società dopo essere stato sconfitto anche grazie alla resistenza, ma non ha avuto la sua Norimberga. La violenza della guerra, in Europa occidentale, si è manifestata ancora, dai Balcani a Cipro e all’Ukraina, ma non ha più coinvolto la maggior parte del territorio, grazie al progetto europeista. Sicché gli europei occidentali che avevano hanno insegnato al pianeta come ci si massacra, dopo il 1945, hanno smesso di farlo tra loro, pur partecipando alla guerra infinita imposta dalla “pax” americana. La violenza è parte della storia. E della violenza fanno parte molte diverse dimensioni della realtà sociale: il potere cieco e autoreferenziale, politico o finanziario; l’inganno e la disinformazione che manipola le coscienze e strumentalizza l’ingnoranza; la paura e l’odio. Mio padre è stato condannato a morte dai fascisti. Ma per fortuna se l’è cavata.
Da parte mia, ho attraversato gli anni di piombo. Oggi sappiamo, o crediamo di sapere più o meno, che si è trattato di un aspetto secondario ma non di piccolo conto della Guerra Fredda. La bellezza selvaggia e innovativa delle rivoluzioni musicali e delle innovazioni dei costumi degli anni Sessanta, nel decennio successivo è stata incanalata nel confronto violento tra estremismi politicamente eterodiretti. In quello scorcio di Guerra Fredda, appunto, nelle “colonie” di confine come l’Italia, si consumavano violenze orribili tra le fazioni locali che le potenze egemoniche potevano strumentalizzare per i loro fini di controllo del territorio, con l’aiuto dei servizi segreti e di altre camarille. Di quel quadro generale potevano comprendere poco i giovani che, come me, si dedicavano alla non-violenza del Mahatma Gandhi e alla consapevolezza ecologica suggerita dai “Limiti dello sviluppo”. Gente fuori contesto che trovava ascolto molto localizzato. Nel corso degli anni Settanta, ecologia e non-violenza erano sensibilità a dir poco minoritarie. Ogni giorno invece le maggioranze subivano piccole e grandi violenze, sottili e aperte intimidazioni. La libertà di espressione era un lusso per i più coraggiosi, mentre i timorosi si perdevano nel conformismo, cioè nel silenzio o nell’accettazione pecorona di uno dei vari settarismi dell’epoca. Il tifo calcistico si mescolava alla violenza politica. Certi alloggi universitari e certe fabbriche diventavano depositi di spranghe e di armi. Il peso delle stragi si faceva insopportabile. Lo stillicidio degli attentati sempre meno comprensibili diventava sofferenza quasi quotidiana. I delitti erano commessi da clandestini che reti incredibilmente diffuse di conniventi aiutavano a sopravvivere. Il calcolo freddo di chi strumentalizzava tutto questo si traduceva in una regia quotidiana, destinata storicamente a una sconfitta che solo alcuni sapevano prevedere in quell’incendio sociale apparentemente inestinguibile. L’odio era un pericolo per la carne degli avversari e per la libertà delle persone che non prendevano parte alla violenza.
Anche quel periodo è finito. La smaterializzazione della violenza è andata di pari passo con molte altre forme di mediatizzazione alle quali gli italiani hanno assistito negli anni Ottanta e Novanta caratterizzati dalla finanziarizzazione consumista costruita con la televisione; e negli anni Duemila con la digitalizzazione a trazione pubblicitaria.
Ci si è accorti piuttosto presto che anche nel contesto digitale, l’odio si prestava a essere anche uno strumento della manipolazione delle coscienze che serviva al potere. Nel 2006 se ne scriveva, su questo blog e altrove (Da Parigi: l’odio in rete). Il compianto Antonio Roversi faceva ricerca sui siti dell’odio molto prima che diventassero oggetto di gruppi di studio governativi (come quello appena annunciato del quale sono stato chiamato a far parte: Gruppo di lavoro sul fenomeno dell’odio online). E questo blog appunto ne dava conto. Le analisi di Roversi si riferivano ai siti di odio calcistico, di odio religioso, di odio razzista. La morfologia e le dinamiche si assomigliavano paurosamente. Già allora i contenuti davano il voltastomaco. E già allora si comprendeva chiaramente come l’unica via d’uscita fosse la cultura, la consapevolezza, la creazione di opportunità umane più grandi e più belle. (Vedi anche: Attenti al loop!).
Ci sono poche certezze di fronte all’odio. Sappiamo per esempio che odiare non può essere vietato. La legge deve stare al suo posto. L’odio non è un oggetto sul quale si possa legiferare. Bisogna ammettere, peraltro, che la maggior parte delle azioni umane in qualche modo connesse – o conseguenti – all’odio e che meritano un intervento giuridico sono già state normate. D’altra parte, in tanti osservano come i media digitali servano al potere per sfruttare in modo capillare l’odio, la paura e altre passioni strumentalizzabili, amplificandone le conseguenze. Ma questo non sembra essere un problema di leggi mancanti. Di certo è un problema di intelligenza da sviluppare. E se serve a capirne qualcosa di più, ben venga il gruppo di lavoro istituito dal governo. Se riuscirà a definire meglio il problema tanto di guadagnato. Altrimenti si sarà perso un altro po’ di tempo.
Le strategie emergenti non dovranno prestarsi a smentire la qualità della democrazia che si prefiggono di salvaguardare. Forse le forme tattiche di sfruttamento e amplificazione dell’odio in chiave di potere possono essere contenute, come si fa con i virus? Può darsi, anche se è ben poco chiaro come si possa fare. La sola strategia che alla lunga può servire a qualcosa per controbilanciare l’odio è lo sviluppo di qualcosa che valga la pena di amare.
Vedi anche:
Antonio Roversi, L’odio in Rete. Siti ultras, nazifascismo online, jihad elettronica, 2006
Giovanni Ziccardi, L’odio online. Violenza verbale e ossessioni in rete, 2016
Giovanni Pitruzzella, Oreste Pollicino, Stefano Quintarelli, Parole e potere. Libertà d’espressione, hate speech e fake news, 2017
I futuri
I futuri sono plurali e le narrazioni riguardano gli scenari possibili, plausibili, probabili e preferibili. Per Martin Raymond, cofondatore di The Future Laboratory, lo studio del futuro non si traduce nella previsione ma nella ricostruzione dei fatti accertati in chiave di scenari emergenti e alternativi. Di certo, la questione dello studio del futuro non si affronta con una scienza esatta. Anche se intelligenza artificiale e modelli econometrici si pongono come strumenti predittivi. Ma il loro senso è comunque narrativo: si prendono i fatti e si estrapolano storie possibili. Ecco perché il futuro è plurale nel presente e singolare nel passato. Sta di fatto che senza avere alcuna idea di come funziona la tecnologia, la scienza, la ricerca quantitativa, non ci si possono fare narrative sensate intorno ai fatti attuali. Ecco perché, dunque, lo studio del futuro è impossibile senza una convergenza tra gli approcci scientifico e umanistico. (The future laboratory)
The Great Reset
Klaus Schwab, leader of the World Economic Forum writes: «COVID-19 lockdowns may be gradually easing, but anxiety about the world’s social and economic prospects is only intensifying. There is good reason to worry: a sharp economic downturn has already begun, and we could be facing the worst depression since the 1930s. But, while this outcome is likely, it is not unavoidable.
To achieve a better outcome, the world must act jointly and swiftly to revamp all aspects of our societies and economies, from education to social contracts and working conditions. Every country, from the United States to China, must participate, and every industry, from oil and gas to tech, must be transformed. In short, we need a “Great Reset” of capitalism».
Klaus Schwab writes: Wef
Digital twins grow
A new study from Juniper Research has found that total global spend on Digital Twins will reach $12.7 billion (€11.3 billion) by 2021; an increase of 17% from $10.8 billion (€9.6 billion) in 2019. Digital Twins are a digital representation of physical assets that utilise IoT data; enabling use cases such as predictive maintenance when combined with AI.
The research outlined that despite the negative impact of COVID-19, Juniper Research is only anticipating a 1% drop in overall Digital Twins spend in 2020. Investment in Digital Twins is driven by valuable efficiency gains, which are increasingly essential in uncertain times. The research identified that under these circumstances, return on investment is still achievable, primarily due to extensive links Digital Twins have to the wider IoT ecosystem.
Read the piece of news: IotNow
See the study: Juniper Research
Smart voice assistants are smart power tools?
Justine Humphry and Chris Chesher, University of Sidney, wrote an article for New Media & Society about smart voice assistants.
Abstract: «Smart voice assistants have become popular thanks largely to their default naturalistic female voices and helpful personae. In this article, we trace changes in robot voices in popular culture and explain how this history influenced the voice design of smart voice assistants. Our research draws on cultural analysis of Hollywood and international films, television and literature, and observations from our personal experiences with voice assistants. We argue that designers of devices like the Google Home and Amazon Echo inherited a cultural imaginary of alien and dangerous robots with artificial voices and personalities. Manufacturers leveraged techniques of modality, personae and invocation and pre-existing social connotations of the voice to create positive associations of these devices in the home. We conclude by arguing that smart voice assistants are new media innovations prepared for consumers through pre-domestication and represent an emerging regime of power and influence based on technologised voice interaction.»
The history of speaking technologies is the frame by which the Authors interpret smart voice assistants. And Walter Ong is a major source of inspiration: «He argues that some features of oral culture have reappeared in a world dominated by writing and print. He referred to this as ‘secondary orality’ pointing to the telephone, radio and television as examples of media that have features of oral culture such as the news anchor who performs as a story teller. VUIs are distinctively different from technologies of writing such as the keyboard and mouse, manifesting a version of secondary orality. Where web searches are forms of writing, voice assistants are oral. Where web searches deliver multiple textual results, a voice assistant typically provides a brief spoken response. Where different web sites represent a range of different voices, the voice assistant typically maintains a consistent voice and persona with which the user can establish an ongoing relationship.»
It is interesting to note that voice reveals a lot about the identity and the social condition of the speaker: «The social character of voice complicates the apparent naturalness of voice as a medium of human communication. Voice immediately reveals the identity and emotion of the speaker. Voices are gendered. They give away ethnic, regional and subcultural identity as established in cultural studies, sociology and linguistics. They give off emotions such as depression, fear or excitement. Designers of the voices of voice assistants face significant challenges in creating voices that belong within the social spaces in which they speak. The voices of the most popular voice assistants are localised to the region in which they are marketed. In Australia, Siri, Google Assistant and Alexa speak in middle-class Australian accents. Until recently, multiple Google Assistant voices have only been available in the United States, and only in English.»
Authors argue that the digital voice design often generates exaggerated stereotypes, with very important consequences.
See the article in pdf: New Media and Society
Education as data processing and emerging biases
There is a general trend towards the use of platforms in education. As in any platform based activity, this generates a lot of data. And people think about how to use those data in order to evaluate and understand educational results. This can lead to a biased interpretation of education. Which can sometimes be a quantified discipline. But that in general has a more important qualitative side that needs to be underlined.
Jun Yu and Nick Couldry, London School of Economics and Political Science wrote and article for Information, Communication and Society addressing the issue: «Digital platforms and learning analytics are becoming increasingly widespread in the education sector: commercial corporations argue their benefits for teaching and learning, thereby endorsing the continuous automated collection and processing of student data for measurement, assessment, management, and identity formation. Largely missing in these discourses, however, are the potential costs of datafication for pupils’ and teachers’ agency and the meaning of education itself. This article explores the general discursive framing by which these surveillant practices in education have come to seem natural. Through a study of commercial suppliers of educational platforms, we show how the prevailing vision of datafication in their discourses categorises software systems, not teachers, as central to education, reimagining space, time, and agency within educational processes around the organisation of data systems and the demands of commercial data production. Not only does this legitimate the new connective environment of dataveillance (that is, surveillance through data processing), but it also naturalises a wider normative environment in which teachers and students are assigned new roles and responsibilities. In the process, the panoptic possibilities of ubiquitous commercial access to personal educational data are presented as part of a virtuous circle of knowledge production and even training for good citizenship. This broader rethinking of education through surveillance must itself be critiqued.»
See the article: Information, communication and society
Facebook, Twitter and Trump
The fight for a better social media environment has begun a few years ago. The scuffle between Twitter and Trump has shown that there may be an emerging problem in defining the role of social media platforms. If Twitter flags messages by the president of the United States as contrary to platform rules does it become a publisher? And the regulation that Twitter must undergo remains the one of software platforms or becomes the one of publishers? And what about Facebook that refuses to intervene against the president’s violent language? Some say that those platforms should be regulated as utilities, others say they should be considered publishers, while platforms prefere to be considered just software tools. Nothing is sure about this matter. We just know that it is very hard to predict that nothing will change. The present business model dominating those social media platforms seem to generate precise negative externalities, such as hate speech and fake news spreading, banalization of public discourse and other pollutants in media ecology. An empirical approach will probably emerge, based on taxation, antitrust regulation, and internal evolutionary dynamics that will create incentives for special self-regulations. People working in Facebook seem to have started a sort of experiment by trying and influence their company’s policy about the matter.