• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer

Giornale politico della fondazione per la critica sociale

  • Home
  • Chi siamo
  • Privacy Policy
  • Accedi
Home » Zzz-ripubb » Analisi » Geni e algoritmi: per una democrazia della ricerca e della scienza

Geni e algoritmi: per una democrazia della ricerca e della scienza

Un programma politico per il Ventunesimo secolo

16 Agosto 2023 Michele Mezza  2032

Geni e algoritmi: per una democrazia della ricerca e della scienza

(Questo articolo è stato pubblicato il 16 gennaio 2023)

Craig Venter, il noto biologo che ha dato un contributo decisivo al sequenziamento del genoma umano, ripete in continuazione che la potenza di calcolo non serve per farci giocare ai giornalisti sui social ma per riprogrammare la vita umana. La partita che si sta disputando – con forze, volontà e lucidità assolutamente asimmetriche fra i proprietari dei sistemi di calcolo e i rappresentanti istituzionali degli utenti – è proprio quella che riguarda la riproduzione e l’integrazione della specie umana. Sia pure non direttamente, la vita artificiale è sicuramente un’esistenza aumentata, in cui la biologia diventa una variante del sistema matematico che guida da tempo i nostri comportamenti.

Le ultime notizie che provengono dalle nuove frontiere dell’intelligenza artificiale (vedi qui) mostrano come ormai ogni soluzione sia finalizzata alla riprogrammazione degli elementi fondamentali della nostra vita. Significativo e assolutamente sorprendente è il cosiddetto progetto Chroma (vedi qui), elaborato da una promettente start up del Massachusetts, che ha presentato qualcosa come la Dell-2 della biologia. Si tratta di un sistema che, ricalcando il meccanismo del nuovo algoritmo Dell-2, sviluppato dalla società Open AI che realizza immagini sulla base di semplici indicazioni scritte, è arrivata a riprodurre diverse proteine con una precisione ed efficacia mai sperimentate in precedenza. Contemporaneamente, nei laboratori dell’Universitàdi Washington, con lo stesso procedimento basato su un modello analogo all’algoritmo Dell-2, sono state ingegnerizzate proteine del tutto inedite, che non sono note alla biologia.

Siamo dinanzi a una realtà stupefacente che, in poche settimane, ha del tutto mutato l’orizzonte scientifico, culturale e politico del pianeta. Prima con la presentazione, ancora in versioni prototipali, da parte di Open AI (finanziata da Elon Musk e ora nell’orbita di Microsoft), di due dispositivi, come appunto Dell-2 e soprattutto Chat Gpt, il sistema di intelligenza artificiale che risponde a ogni domanda in ogni lingua, con una semantica naturale, si è aperta la strada all’uso individuale di risorse di calcolo che, fino a qualche mese fa, erano riservate solo a grandi apparati istituzionali o privati. Quindi un’ulteriore escalation. Questi dispositivi che sembravano, per quanto straordinari, pur sempre limitati all’attività di comunicazione e relazione fra imprese o singole persone, sono oggi utilizzati per nuove ricerche nel campo delle biotecnologie, arrivando così più vicini alla meta della riproduzione artificiale della vita umana.

Dieci giorni fa, in Vaticano, nell’ambito del progetto “Call for Etichs”, si è arrivati alla firma di un documento comune delle tre religioni monoteiste, proprio sui limiti e i controlli dell’ingegneria biotecnologica (vedi qui). A distanza di solo qualche giorno, quel documento, per quanto impegnato e lungamente elaborato dai massimi esperti delle tre principali comunità religiose del pianeta, appare già in qualche modo superato, o comunque aggirato.

L’ammonimento di Craig Venter diventa sempre più minaccioso: soprattutto la sua previsione sul fatto che le nuove tecniche di intervento genetico (come il Crispr, il sistema di manipolazione del patrimonio genetico di un individuo) saranno sempre più miniaturizzate, diventando accessibili per sistemi, apparati, addirittura individui, senza particolari dotazioni o dimensioni organizzative, pone un problema di sicurezza e di controllo sociale.

Se invece di trastullarci con futili argomenti – quali il tema delle fake news o dell’inquinamento giornalistico – affrontassimo, a livello politico e delle massime responsabilità istituzionali, il nodo di come combinare l’accessibilità alle nuove tecniche come forme di democrazia e di benessere con le esigenza di controllo e limitazione dell’uso di queste opportunità al fine di alterare equilibri naturali fondamentali, forse l’orizzonte del pianeta sarebbe meno incerto; e la politica potrebbe uscire dalla quaresima in cui si trova alla ricerca di senso e ragioni, cercando una nuova missione per dare nerbo al suo protagonismo.

Diventa esemplificativo il metodo usato per finalizzare un sistema, quale appunto Dell-2, che doveva servire solo a moltiplicare la capacità di produzione di immagini, decentrando – è questo poi il concetto chiave che rende instabile e imprevedibile l’azione della rete – verso imprese e professionisti, meno dotati economicamente, la possibilità di entrare sul mercato comunicativo. Quel meccanismo che vede un’intelligenza artificiale scovare e ricomporre i pixel di un’immagine in rete, in base alla sommaria descrizione trasmessa in linguaggio naturale da un committente – per esempio, voglio l’immagine di una ragazza con occhi verdi e foggia spaziale su scenario astratto –, oggi può essere utilizzato per selezionare e combinare amminoacidi, che configurano proteine del tutto ignote sul pianeta.

Il decentramento – lo spiega lucidamente il generale cinese Qiao Liang nel suo L’arco dell’impero (Leg edizioni) – è la tendenza destinata a squilibrare gli assetti politici e geopolitici, facendo irrompere sulla scena soggettività politiche del tutto imprevedibili. I tumulti brasiliani, o le minacce trumpiane, e anche il crescere dell’onda reazionaria e sovranista sui social, sono modelli che segnalano come, in politica, prendano forma proteine sconosciute mediante l’uso di intelligenze artificiali, che selezionano materie prime – gli amminoacidi delle proteine diventano interessi e messaggi, dosati sapientemente uno per uno a milioni di elettori profilati e catalogati – per riprogrammare la domanda politica. La matrice di questi fenomeni rimane comunque proprio quel campo, ancora del tutto informale e non regolato, che è la ricerca combinata, al confine fra biologia e informatica avanzata. Il motore di questa potenza biotecnologica, che incontriamo in molti altri campi, ma che in questo settore diventa assolutamente squilibrante per il presidio umano, è il cosiddetto machine learning, cioè l’attitudine ad apprendere dalle esperienze pregresse. Si tratta di una funzione che sta assumendo dimensioni e obiettivi i cui contorni sono ancora da inquadrare e, ancor più, da regolamentare. Per machine learning, secondo l’accreditata definizione di Tom Mitchell (Machine Learning, New York, McGraw Hill,1997), si intende che “un programma apprende dall’esperienza (E) riguardo ad alcune classi di compiti (T) e misure di prestazione (P), quando la sua prestazione nel compito (T) come misurata da (P) migliora con l’esperienza (E)”. Una definizione che mostra chiaramente i punti di discrezionalità e di potenziale conflitto: chi misura e in base a quale fine valuta il miglioramento della prestazione?

Sono questi i due buchi neri attorno a cui si riproduce l’antica contraddizione fra i proprietari dei mezzi di produzione, in questo caso l’intelligenza artificiale, e i prestatori d’opera, in questo caso le comunità di utenti, più che i singoli individui che utilizzano il dispositivo. Proprio la differenza fra comunità e individui potrebbe aiutarci a scorgere modalità e procedure di intervento negoziale nel processo di evoluzione biotecnologico.

Come abbiamo visto, nel pur meritevole e illuminato tentativo delle comunità religiose di fissare paletti e regole per sorvegliare i processi tecnologici, la dinamica dell’innovazione è talmente frenetica che rende inadeguata anche la norma più preveggente. Si tratterebbe, invece, di escogitare forme di contrattazione e controllo che abbiano la stessa agile capacità di adattamento mostrato dalle piste di sviluppo della ricerca. Un algoritmo è negoziabile solo da un altro algoritmo, che abbia capacità e velocità coerenti con l’oggetto che vuole controllare. In particolare, per quanto riguarda le linee di innovazione della ricerca. Proprio questa dimensione, la ricerca di base e quella derivata, devono essere al centro di una nuova e costante attenzione da parte delle comunità politiche e istituzionali.

Il punto che va oggi affermato, e reso concretamente operabile, riguarda il richiamo contenuto nello Human Genome Editing. Sciences, Ehtics and Governance della Accademia nazionale delle scienze americana, del 2017, che reclamava la “presenza pubblica nel processo decisionale generale del sistema scientifico, che dovrebbe includere un monitoraggio continuo degli atteggiamenti pubblici, dei deficit informativi e delle preoccupazioni emergenti nell’opinione pubblica”. Un nodo che, proprio nel corso della pandemia, abbiamo avvertito come drammatico, quando le decisioni istituzionali sulle strategie vaccinali e le programmazioni di ricerca dei grandi gruppi farmacologici sfuggivano completamente alla consapevolezza pubblica.

Come scrive Fabrizio Rufo, nel suo Etica in laboratorio (Donzelli editore), intervenendo sulle polemiche indotte dalle sentenze conseguenti al terremoto dell’Aquila, che incriminavano gli scienziati per non aver saputo prevedere il sisma: “Questo processo ha contribuito a dare un nuovo impulso al dibattito sul rapporto fra conoscenza scientifica e decisione di policy, e più in generale fra scienza e potere politico. In particolare una lettura in chiave epistemologica delle controverse sentenze evidenzia, in primo luogo, il deficit di rappresentanza insito in una gestione incentrata sul rapporto esclusivo fra expertise e decisori politici”.

Affiora, in questa riflessione, il tema degli esperti come copertura e casta che ancora intermedia i processi scientifici con la giustificazione della complessità della materia. Ma proprio la convergenza fra diverse discipline e sistemi epistemologici rende sempre più evidente come, al centro delle procedure di ricerca, si ponga ormai con evidenza un fine, economico o politico, a cui si piega la potenza di calcolo con un armamentario etico che diviene la sua strumentazione. Fini e valori sono il campo di una nuova conflittualità politica, che deve interferire con la separatezza degli esperti, e soprattutto con il privilegio dei proprietari.

Tanto più che, nella ricerca, assistiamo ormai in maniera organica e evidente a quel paradosso denunciato da Mariana Mazzucato in Lo Stato innovatore (Laterza), per cui l’ente pubblico finanzia generosamente la ricerca di base e orienta quella applicativa, mentre i privati raccolgono nel tratto finale della commercializzazione i frutti, e si arrogano il potere di dare un’anima ai prodotti. L’avanzamento spettacolare dei saperi – e la progressiva azione di decentramento degli accessi e delle competenze, anche di base, da parte di comunità sempre più vaste e articolate (pensiamo alle smart cities o ai sistemi di relazione digitale) – appare in stridente contraddizione con quella che, in Democrazia (Einaudi), Stefano Petrucciani definisce una “regressione oligarchica” degli apparati tecno-scientifici, che alimenta una spinta a una “vera e propria de-democratizzazione della nostra società”.

Persino nella tragica esperienza della guerra, come ci mostra con terribile persuasione quanto sta accadendo in Ucraina, assistiamo all’irruzione in scena della società civile che, sulla base di quel decentramento di cui parla Qiao Liang, sta ridisegnando le forme del conflitto, sottraendolo agli esperti e dandogli un’interpretazione socialmente capillare, mediante le forme di raccolta e distribuzione dei dati. Sono i dati, cioè la materia prima ancora esclusiva della specie umana, non suscettibile di riproduzione tecnologica, la fonte che rende efficaci e dinamiche le intelligenze del machine learning. Dati che appartengono alle comunità, e rendono la ricerca una pratica sussidiaria. Proprio le imponenti impennate  di questa datocrazia, che considera passivi i cittadini e specula sulla inconsapevolezza della loro produzione, rende dunque ineludibile una reinvenzione dell’innovazione, come scrive Rufo, ancora nel saggio citato, sollecitando una svolta politica: “Per poter diventare un motore di crescita, l’innovazione deve radicarsi nella società, diffondersi capillarmente, diventare aperta e distribuita, definire un nuovo modello che stimoli la partecipazione degli attori sociali, e sia in grado di favorire la creazione di forme di ibridazione dove gli shareholders (le istituzioni della democrazia delegata e gli esperti) e gli stakeholders (i portatori di interessi che hanno una posta in gioco) possano dialogare e compartecipare, ciascuno con le sue prerogative, alle decisioni”.

Se non è questo un programma politico, cosa lo sarà mai nel Ventunesimo secolo?

Archiviato inAnalisi
Tagsalgoritmi ChatGPT Craig Venter dati datocrazia Dell-2 democrazia Fabrizio Rufo machine learning Michele Mezza programma politico Qiao Liang ricerca

Articolo precedente

“Partito del lavoro? Il nome non basta per essere di sinistra”. Intervista a Sergio Cofferati

Articolo successivo

Strage di Bologna. Le motivazioni della sentenza contro Bellini

Michele Mezza

Articoli correlati

La versione di Giorgio: modernizzazione senza conflitto e senza popolo

Il gatto selvaggio americano

Senza conflitto non si selezionano le leadership

La privatizzazione della guerra secondo Musk

Dello stesso autore

La versione di Giorgio: modernizzazione senza conflitto e senza popolo

Il gatto selvaggio americano

Senza conflitto non si selezionano le leadership

La privatizzazione della guerra secondo Musk

Primary Sidebar

Cerca nel sito
Ultimi editoriali
I migranti, i 5 Stelle e il Pd
Rino Genovese    22 Settembre 2023
Studenti sotto le tende
Agostino Petrillo    21 Settembre 2023
Wokismo e antiwokismo nella politica contemporanea
Rino Genovese    19 Settembre 2023
Ultimi articoli
La Cgil riparte dalla società
Paolo Andruccioli    25 Settembre 2023
Guatemala, un presidente a rischio
Claudio Madricardo    22 Settembre 2023
Il Pd nel solito tran tran
Vittorio Bonanni    20 Settembre 2023
Morti sul lavoro, a chiacchiere tutti d’accordo (o quasi)
Paolo Barbieri    19 Settembre 2023
Caso Santanchè. Incredibile che sia ancora lì
Stefania Limiti    18 Settembre 2023
Ultime opinioni
Napolitano, il craxiano del Pci
Rino Genovese    25 Settembre 2023
La violenza giovanile maschile
Stefania Tirini    13 Settembre 2023
Per una scissione nel Pd
Nicola Caprioni*    12 Settembre 2023
Dalla democrazia politica alla democrazia delle emozioni
Massimo Ilardi    7 Settembre 2023
Il bagnasciuga di Giorgia Meloni
Giorgio Graffi    4 Settembre 2023
Ultime analisi
Tutti i progetti portano a Roma
Paolo Andruccioli    28 Luglio 2023
Roma riprende la cura del ferro
Paolo Andruccioli    21 Luglio 2023
Ultime recensioni
“Io capitano” di Garrone
Antonio Tricomi    21 Settembre 2023
L’ultima rivoluzione dell’industria
Paolo Andruccioli    20 Settembre 2023
Ultime interviste
Ecco perché a Brandizzo c’è stata una strage
Paolo Andruccioli    4 Settembre 2023
“La pace è un cammino”
Guido Ruotolo    6 Giugno 2023
Ultimi forum
Welfare, il nuovo contratto sociale
Paolo Andruccioli    4 Maggio 2023
C’era una volta il welfare
Paolo Andruccioli    27 Aprile 2023
Archivio articoli

Footer

Argomenti
5 stelle Agostino Petrillo Aldo Garzia ambiente cgil Cina Claudio Madricardo covid destra elezioni Emmanuel Macron Enrico Letta Europa Francesco Francia Germania Giorgia Meloni governo draghi governo meloni guerra guerra Ucraina Guido Ruotolo immigrazione Italia Joe Biden lavoro Luca Baiada Mario Draghi Michele Mezza Paolo Andruccioli Paolo Barbieri papa partito democratico Pd Riccardo Cristiano Rino Genovese Russia sindacati sinistra Stati Uniti Stefania Limiti Ucraina Unione europea Vittorio Bonanni Vladimir Putin

Copyright © 2023 · terzogiornale spazio politico della Fondazione per la critica sociale | terzogiornale@gmail.com | design di Andrea Mattone | sviluppo web Luca Noale

Utilizziamo cookie o tecnologie simili come specificato nella cookie policy. Cliccando su “Accetto” o continuando la navigazione, accetti l'uso dei cookies.
ACCEPT ALLREJECTCookie settingsAccetto
Manage consent

Privacy Overview

This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary
Sempre abilitato
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Non-necessary
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
ACCETTA E SALVA