Archivi tag: Innovazione

Comunicare vuol dire

1. Si potrebbe cominciare ricordando che dal marzo 2000 nei documenti ufficiali dell’Unione europea la strategia di Lisbona e lo sviluppo della società dell’informazione, della comunicazione, della conoscenza sono di gran lunga gli eventi più citati; o che Google da 3 milioni e 670 mila risposte alla ricerca relativa a “information society” (767 mila se la richiesta è “Information and Communication Technology”; 38 milioni e 500 mila se l’interrogazione si riferisce a “ICT”); o ancora che in una delle storie di solitudine e di allegria che compongono il suo ultimo lavoro (La grammatica di Dio, Feltrinelli) Stefano Benni racconta la meraviglia e l’incubo di un uomo senza qualità in cerca della sua identità in un negozio di telefonini; o infine che in un saggio del 1983 Maryan S. Schall scrive che “le organizzazioni sono entità sviluppate e mantenute semplicemente attraverso i continui scambi di attività comunicativa e di interpretazioni tra i partecipanti. In altri termini, i processi comunicativi inerenti all’organizzare creano una cultura organizzativa che si rivela attraverso le sue attività comunicative […] ed è contrassegnata dai vincoli comunicativi – le regole – legati al ruolo e al contesto”.

2. In realtà gli argomenti che giustificano la scelta di discutere di “comunicazione” sono, come gli uomini dagli specchi, moltiplicabili all’infinito. E quelli appena ricordati non sono necessariamente i più geniali o i più significativi.
Il magico verso di Donne, “Nessun uomo è un’isola”, sarebbe stato di certo assai più evocativo. Così come la filosofia di Hume, l’idea che “una solitudine totale è forse il peggior castigo che ci si possa infliggere”, che “qualsiasi piacere languisce se non è gustato in compagnia, e qualsiasi dolore diventa più crudele e intollerabile”. O la consapevolezza che in questa materia la questione relativa alla selezione e alla completezza delle fonti è di grande rilevanza per almeno tre diverse ragioni: perché l’informazione non è solo un prodotto di consumo ma anche, soprattutto, un bene pubblico; perché nella fase attuale della modernità il potere di informare si interseca saldamente, più che in ogni altro periodo, con il potere di formare; perché una società nella quale non ci fosse la possibilità di proporre e di disporre di visioni e punti di vista alternativi, non potrebbe essere a giusta ragione definita pluralista.
Nei cieli dell’informazione e della comunicazione le cose sono insomma così tante che si corre davvero il rischio di cadere nella tautologia e dunque più che soffermarci ancora sul “perché”, proveremo a formulare qualche considerazione sul “come”, intorno cioè alle scelte e alle modalità che hanno orientato questo lavoro. La cornice, i tre movimenti e le due parole chiave che seguono sono per l’appunto l’esito di tale tentativo.

3. La cornice è quella data dal titolo, Comunicare vuol dire, che tradisce per così dire l’intenzione di raccontare più cose, da più versanti e prospettive, senza perdere di vista le trait d’union, il filo rosso che connette le diverse parti del racconto.
I tre movimenti si riferiscono alle interviste (di Cinzia Massa a Fulvio Fammoni e a George Siemens), alle storie (di Luca De Biase, Raffaele Fiengo, Piergiovanni Mometto, Nicoletta Rocchi e Rosario Strazzullo), al commento alla normativa europea ed italiana in materia di sistemi radiotelevisivi (di Antonio Lieto) e permetteranno al lettore di familiarizzare con idee, esperienze, fatti ed opinioni che in vario modo e per diverse ragioni rappresentano aspetti rilevanti della discussione intorno allo stato e al futuro dell’informazione, della comunicazione, della conoscenza.
Le due parole chiave sono cambiamento e partecipazione. Che naturalmente non esauriscono la molteplicità di concetti, idee guida, sollecitazioni, notizie che il lettore incontrerà nel corso della lettura e che però di tale molteplicità rappresentano il possibile background, lo spazio nel quale ricercare una tavola di valori, di riferimenti, di interpretazioni condivise, qualcosa che assomigli a ciò che in altri contesti Rawls ha definito overlapping consensus (consenso per intersezione).

4. L’idea è in definitiva che nei nostri modi di comunicare così come nei nostri modi di apprendere la partecipazione è un aspetto – fattore costitutivo dei cambiamenti in atto. Non per immaginare un mondo, che non c’è, tutto reti e niente gerarchie. Ma per lavorare con pazienza, intelligenza, ogni giorno, per rendere questo nostro mondo almeno un po’ meno ingiusto.
È un lavoro che richiede l’impegno, ancora una volta la partecipazione, di molti. Persone che sanno dare senso a ciò che fanno. Persone consapevoli, come direbbe Calvino, della necessità di “non farsi mai troppe illusioni e non smettere di credere che ogni cosa che fai potrà servire”.
Forse si può cominciare proprio così. Con l’idea che in questo controverso inizio di terzo millennio comunicare vuol dire partecipare. Partecipare vuol dire cambiare. Cambiare vuol dire rendere almeno un po’ meno evanescenti e più reali le possibilità di accesso, le opportunità, delle donne e degli uomini di ogni età, di ogni ceto sociale, di ogni parte del mondo. Un mondo capace finalmente di essere normale.
Buona lettura.

Un modello di ricerca da importare

Tokio. RIKEN. Headquarters. L’appuntamento è per le 14 in punto. Non riesco a celare una certa agitazione. Ryoji Noyori è il Presidente del RIKEN (www.riken.jp). Premio Nobel per la chimica 2001. E qui in Giappone i Nobel sono considerati una sorta di semidei. Insomma non proprio una di quelle persone che si intervistano ogni giorno. Mi soccorre Jorge Luis Borges. L’idea che i giapponesi sono così gentili da darti ragione anche quando hai torto. Salgo le scale. Resto due minuti due in attesa. I saluti. Pronti. Si parte.

La funzione sociale della scienza
Negli ultimi cento anni lo sviluppo delle tecnologie ha avuto un ruolo fondamentale nei processi di mutamento economico e sociale. Naturalmente non mancano i problemi (cambiamenti climatici, deterioramento ambientale, scarsità delle risorse energetiche, sovrappopolazione, etc.), in larga parte il risultato di uno sviluppo delle tecnologie guidato troppo e per troppo tempo dalle logiche di mercato.
Il tema centrale è oggi la sostenibilità dei processi di sviluppo. In un mondo che non può fare a meno di energia nucleare, di cibi geneticamente modificati, di clonazione di piante ed animali è necessario che la comunità scientifica, l’industria, l’insieme dei business actors si diano valori comuni, definiscano un’etica condivisa.
Sviluppo tecnologico e ricerca scientifica devono saper guardare alle generazioni future, muovere da un principio di giustizia sociale. I governi basati su regole legittime e attenti al sociale sono indispensabili per lo sviluppo delle future tecnologie.

Capacità di attrarre talenti
Nell’era della conoscenza sarà sempre più impegnativo competere. Occorre riuscire a catturare i numeri uno ovunque essi siano. Purtroppo non sempre riesce. Per attrarre i migliori scienziati occorre non solo che l’ambiente di ricerca sia, come al RIKEN, eccellente, ma anche che ci sia un living environment di livello internazionale, e non è semplice.

Questioni di merito
Al RIKEN il merito è molto importante. È una “organizzazione comprendente”, che punta a creare connessioni tra i diversi aspetti della ricerca e renderla più ricca di variabili. L’idea è che la conoscenza di qualunque scienziato o ricercatore, per quanto possa essere ricco di talento, è per definizione limitata. E che la collaborazione tra ricercatori produce effetti assolutamente benefici così come quella tra istituzioni e paesi diversi.
Scontato? Niente affatto. L’organizzazione RIKEN è ad esempio diversa da quella della Max Planck Society. Naturalmente anche lì la qualità della ricerca è molto alta ma gli istituti di ricerca lavorano in modo indipendente, persino isolato. Il RIKEN invece incentiva fortemente i processi di collaborazione e integrazione tra differenti istituti.
Gli obiettivi? Fare ricerca al top della qualità. Promuovere lo sviluppo di nuove aree di ricerca attraverso i meccanismi di integrazione. Creare infrastrutture di ricerca dagli elevati standard per la comunità scientifica.

Prendere decisioni
L’Executive Board è il più alto organismo decisionale del RIKEN, ma hanno una funzione strategicamente rilevante anche organismi come il RIKEN Advisory Board, che consente di avere consulenze di esperti esterni alla comunità scientifica in materia di management, e il RIKEN Science Council, che discute autonomamente la gestione di RIKEN e può dare indicazioni al Presidente in merito a specifiche tematiche.
Dato questo sfondo, il bilanciamento dei processi decisionale di tipo top-down (che nascono dal management) e quelli di tipo bottom-up (generati invece dagli scienziati) è un ulteriore obiettivo della struttura.

Framework Research
Le aree di ricerca al RIKEN sono molto vaste e vengono perciò intraprese ricerche inerenti diversi framework; anche le abilità e le capacità richieste ai vari “RIKEN workers” sono molto diverse tra loro. RIKEN Discovery Research Institute, RIKEN Spring 8, RIKEN Nishina Center operano ad esempio su una prospettiva di lungo periodo. Frontier Research System e Life Science Research Centers sono concentrati su obiettivi di medio periodo. Da sottolineare infine che al RIKEN il “permanent staff” rappresenta solo il 15% del totale, il restante 85% è impiegato con contratti a termine (compresi i direttori e i team leaders).

Delle connessioni
RIKEN ha attualmente accordi di collaborazione con 110 istituzioni in 30 diversi paesi e regioni e sono stati realizzati 120 progetti di ricerca grazie ad accordi di collaborazione internazionale. Un forte contributo in questa direzione viene anche dalla forza relazionale dei ricercatori, dalla loro storica capacità di attivare collaborazioni internazionali. Bisogna fare di più, saper migliorare costantemente anche su questo terreno.

L’approccio olistico
Alle profonde contraddizioni della modernità paesi come il Giappone e gli USA, gli stessi paesi dell’Unione Europea devono rispondere gestendo al meglio i grandi temi legati allo sviluppo compatibile. Non si possono risolvere le questioni epocali che il mondo ha di fronte senza comprenderle a fondo. C’è bisogno di esplorare il settore delle scienze della vita e della biologia per capire l’essenza degli organismi viventi. E per farlo, così come per conoscere e capire le proprietà dei materiali o della mente è indispensabile un approccio olistico. Non esiste futuro in una prospettiva riduzionista.

È la domanda a guidarci
L’organizzazione RIKEN può essere un esempio per l’Europa e l’Italia?
Il presidente Noyori non sembra avere dubbi. E vista dal versante organizzativo è difficile dargli torto. Il fatto è che è questione anche di volontà politica. Di capacità di sistema. Di risorse disponibili.

Sognando Riken

About RIKEN »
3.441 scienziati direttamente impegnati nelle diverse attività; 2.456 provenienti da strutture di ricerca di ogni parte del mondo; 1.185 studenti impegnati nelle attività di tirocinio; un budget per il 2007 di circa 90mila milioni di yen; un’attività di sperimentazione e ricerca che attraversa, escluse quelle umane e sociali, ogni campo delle scienze e delle tecnologie; l’impegno a rendere pubblici i risultati delle proprie attività: è il RIKEN oggi. Per saperne di più non perdetevi le due storie che seguono.

Ego in rete »
Piero Carninci già lo conoscete (Nova 24, 12 luglio 2007). Con le sue ricerche ha messo in discussione il dogma dell’immutabilità del DNA. È stato il primo scienziato non giapponese ad essere insignito del Yamazaki-Teiichi Prize. Ribadisce che nella ricerca si confrontano “ego” notevoli, che lo scienziato è per “sua natura” competitivo. E che però per ottenere risultati importanti bisogna fare rete con chi ha competenze complementari. Un modello di collaborazione tutto RIKEN – aggiunge – è il consorzio FANTOM, nato nel 2000 dalla consapevolezza che pur essendo molto forti nel produrre i full-length cDNA, (DNA complementare di mRNA a lunghezza completa), nel fare datasets estesi, eravamo deboli nell’analizzarne la funzione. Dunque occorrevano ricercatori più capaci di focalizzarsi sullo specifico. Sono arrivati così una cinquantina di biologi provenienti da campi diversi e felici di lavorare in laboratori attrezzati per analizzare tutti i geni, o gli RNA, in un colpo solo. Sono stati determinanti per il successo del progetto. FANTOM ha creato un modello che può essere imitato. A patto però di apportare idee e visioni originali. Altrimenti fare come fanno gli altri non funziona. Da noi questa cultura è molto forte. Il “RIKEN Presidential Fund”, presieduto dal presidente Noyori, è ad esempio un premio bandito 2 volte all’anno che assegna finanziamenti biennali alla ricerca che mette assieme due istituti diversi del RIKEN (ad esempio genomica e neurobiologia) intorno a un progetto il più possibile pazzo e rischioso.

Il gene interruttore »
Nel futuro prossimo venturo di Carninci ci sono molte cose. La correlazione tra le sequenze del genoma che regolano l’espressione dei vari RNA cellulari ed il livello di espressione di questi ultimi (per sapere come e perchè differenti geni vengono espressi in condizioni e tessuti differenti). L’analisi degli elementi che regolano l’espressione genica in specifici neuroni come le cellule nervose (si tratta di studi molto complessi che hanno tra gli altri l’obiettivo di capire la funzione della plasticità del cervello, di individuare meccanismi su come riattivarla, di definire e sviluppare metodologie per studiare la neurodegenerazione). L’esplorazione di tipi di RNA prodotti dal genoma (il genoma produce tanti RNA di diversi tipi e dimensioni; la parte più importante ed eccitante è che tra questi ci sono RNA “interruttori” di attività genica: usando RNA si potrà in futuro accendere o spegnere la funzione di vari geni (si potrà ad esempio alterare il decorso di malattie prima incurabili, anche se per ora la ricerca non è ancora rivolta alle malattie ma alla comprensione dei meccanismi).

Una geniale fabbrica di serendipity »
Al Frontier Research System la ricerca è davvero ad alto rischio. Vi lavorano in 179 tra scienziati e ricercatori. Dodici le aree di ricerca attive intorno a tutto quanto fa frontiera, dai robot umani interattivi alle nanoscienze, dai controlli biomimetici ai computer quantici.
Cose da (scienziati) pazzi? Assolutamente no. Perché le scoperte che avvengono per genio e per caso lasciano spesso un segno importante. Perché il risultato, quando c’è, assicura un vantaggio cognitivo – competitivo di grande rilevanza.
Franco Nori è a capo del Digital Materials Laboratory (DML) al Single Quantum Dynamics Research Group. Teoria. Idee. Per vedere, manipolare, sfruttare nuovi fenomeni quantici. Nori è membro della American Physical Society dal 2002 e dell’Institute of Physics del Regno Unito dal 2003; sarà eletto, il prossimo 16 febbraio, membro dell’American Association for the Advancement of Science; ha ricevuto nel 1998 un “Excellence in Research Award” e nel 1997 un “Excellence in Education Award” dall’Università del Michigan; nel suo cv oltre 160 pubblicazioni (e oltre 4600 citazioni) su riviste come Physical Review Letters, Science, Nature, Nature Materials, Nature Physics. È l’uomo che ha maggiori probabilità di vincere la corsa per la realizzazione del computer in grado di risolvere in pochi secondi ciò che i computer attuali non possono risolvere in un anno.
La possibilità di utilizzare le tecnologie dell’informazione quantistica non è più solo un sogno – afferma – anche se sui tempi occorre essere ancora cauti. In fondo gli studi sull’elaborazione di questo tipo di informazione sono partiti da poco. Non si sa ancora quali dispositivi o sistemi (atomi, fotoni, spin ecc.) saranno più adatti. Tante sono le sfide ancora aperte. Ma anche se i tempi non sono ancora prevedibili, è comunque una questione di tempo. Così come è certo che la discussione attiva e continua con scienziati che provengono da altre parti del mondo, il continuo scambio di idee, l’intensa dinamica di gruppo rappresentano il fondamentale punto di forza del DML.

E’ la domanda a guidarci »
Si può parlare di modello RIKEN nella ricerca scientifica così come si è parlato di modello Toyota nell’industria? Da questa domanda è nata un’idea. Dall’idea una scommessa. Che il Dipartimento di Sociologia dell’Università di Salerno ha deciso di cogliere. Con un progetto di ricerca per l’anno 2008. Che si propone di analizzare, sulla base di una ricerca sul campo, a partire da alcuni studi di caso, il modello organizzativo RIKEN; la struttura dei suoi processi decisionali; le dinamiche di collaborazione – competizione, di creazione di senso, di costruzione di ambienti sociocognitivi serendipitosi che caratterizzano la sua attività; la sua elevata capacità di attrarre talenti da ogni parte del mondo.

The winner is »
Gli obiettivi? Verificare se e come il RIKEN può essere un modello vincente. Se e come tale modello può indurre processi di isomorfismo. Se e come tali processi possono delineare, per l’Italia e l’Europa, opportunità inedite di organizzazione e sviluppo della ricerca scientifica. Definire scenari e indicare proposte che frenino la fuga e lo spreco di cervelli. Incoraggiare i giovani a non abbandonare la difficile ma entusiasmante via della ricerca scientifica. Offrire alle comunità di manager e di ricercatori elementi utili alla loro riflessione e al loro agire. Dare una qualche risposta alla domanda di studi innovativi sul pensiero organizzativo.
That’s all folks. Per ora.

Illuminato dal potere della chimica

All’inizio delle scuole medie, mio padre mi portò a una conferenza sul nylon. Fui profondamente impressionato dalle potenzialità della chimica, che può creare cose importanti a partire quasi dal nulla! La conferenza ebbe un enorme impatto su quello studente allora dodicenne, eravamo nel 1951, subito dopo la guerra mondiale. Il Giappone era molto povero. Avevamo davvero fame. In quel momento capii che il mio sogno era quello di diventare un chimico che potesse essere in prima linea nel contribuire al bene della società attraverso l’invenzione di prodotti utili. Si racconta così Ryoji Notori nell’autobiografia pubblicata su http://www.nobelprize.com.
Il presidente del Riken ha oggi 70 anni (Kobe, 1938). Ha conseguito il dottorato all’Università di Kyoto, ha proseguito gli studi all’Università di Harvard, ed è tornato in Giappone come professore all’Università di Nagoya, dove ha ricoperto numerose cariche, compresa quella di direttore del Centro ricerche per le scienze dei materiali.
È autore di oltre 400 pubblicazioni e ha firmato 145 brevetti. I suoi studi e le sue scoperte sulla produzione di catalizzatori chirali, vale a dire di molecole capaci di controllare selettivamente le reazioni di sintesi di determinate molecole chirali, gli sono valsi il Premio Nobel (insieme a William Knowles e K. Barry Sharpless).
Il 20 settembre del 2002 gli è stata conferita dall’Università di Bologna la laurea honoris causa in chimica industriale con la seguente motivazione: «La ricerca sulle sintesi asimmetriche catalitiche, che gli ha valso il Nobel, riguarda processi ecocompatibili, che vengono applicati a livello industriale nella sintesi di numerosi composti per ottenere antibiotici, antibatterici, vitamine. Importante è stato lo studio dell’uso dell’anidride carbonica come mezzo a basso impatto ambientale per ottenere prodotti ad alto valore aggiunto della chimica industriale. La sua ricerca ha consentito progressi in ambito chimico, della scienza dei materiali, biologia e medicina».
Il 30 ottobre 2003 è stato ordinato da Papa Giovanni Paolo II Membro Ordinario della Pontificia Accademia delle Scienze.

La posta è alta: usare in alcuni casi le macchine al posto degli uomini

Si può raccontare di Intelligenza Artificiale in molti modi. Si può cominciare dal cinema. Da film famosi come A.I.. Io Robot. Minority Report. Da film culto come 2001 Odissea nello Spazio. Blade Runner. Matrix. Si può cominciare dalla letteratura. Da Isaac Asimov. Fredric Brown. Philip K. Dick. Dean R. Koontz. Dan Simmons. Si può cominciare dalla leggenda. Dal rabbino Jehuda Löw ben Bezalel. Dalla Praga del XVI secolo. Dal Golem che si anima se gli si scrive emet (verità) sulla fronte. Che si spegne cancellando la e (met in ebraico vuol dire morte).
Si può. Viene persino naturale. Facile il gioco di parole. Emet/Met. On/Off. Zero/Uno. Linguaggio binario. Calcolatore. Intelligenza Artificiale.
E invece no. Decisamente no. E non per malcelato spirito di contraddizione. Né per picca, per ripicca e per puntiglio come la furba Bice di “Uomo e Galantuomo” di Eduardo De Filippo. Ma perché questa è una storia che va raccontata dal principio. E al principio non ci sono il cinema. La letteratura. La leggenda. Ma la voglia dell’uomo di pensare l’inpensabile. Di raggiungere l’irraggiungibile. Fino a farlo diventare realtà. Grazie al genio. Alla tecnologia. All’innovazione. Al lavoro.

Genio. Tecnologia. Innovazione. Lavoro. Parole del futuro. Parole antiche come le montagne. Parole che ci hanno fatto incontrare il fuoco. La ruota. La leva. Il telaio. La locomotiva. L’automobile. Il DNA. Il computer.
È importante non perdere di vista questa Storia. Collocare gli eventi nella giusta cornice. Perché ci aiuta a comprendere, spiegare, attribuire significati. A definire l’approccio, la metodologia, che ci fanno accorgere che quella determinata idea, quel particolare fatto o evento sono destinati a cambiare i nostri modi di vivere, studiare, lavorare, divertirci. A riconoscere l’innovazione. In un mondo che ama troppo la velocità e troppo poco la profondità. Troppo la precarietà e troppo poco la creatività. Troppo il denaro e troppo poco la cultura. Un mondo che vale la pena cercare di migliorare almeno un po’. Con pazienza e lavoro.

Dentro questa Storia ha senso raccontare di intelligenza artificiale, narrare storie che vantano già protagonisti importanti, anche nel nostro Paese.
Le donne e gli uomini che nella campagna veneta fabbricano avatar (termine sanscrito che definisce l’assunzione di un corpo fisico da parte di un dio e che è diventato nel linguaggio di internet sinonimo di rappresentazione virtuale di una persona reale) sono tra questi. Così come Matteo Loddo e Alessandro Ciaralli, che lo scorso 21 novembre si sono laureati alla Facoltà di Architettura dell’Università La Sapienza animando e facendo parlare al loro posto due avatar rigorosamente in 3D (sistema che usa tecniche come la prospettiva e l’ombreggiatura per rappresentare a tre dimensioni immagini che in realtà sono a due dimensioni).
Molte cose sono dunque accadute da quando, nel 1956, a Dartmouth, Marvin Minsky, Nathaniel Rochester, Claude Shannon e John Mc Carthy promossero il seminario che diede alla luce il concetto di Intelligenza Artificiale. L’obiettivo? Lo stesso che un po’ di anni prima era stato dichiarato da Alan Turing: “costruire una macchina che si comporti in modi che sarebbero considerati intelligenti se un essere umano si comportasse in quel modo”.
Gli esiti, come sempre in questi casi, sono stati talvolta incoraggianti (come la volta che Deep Blue, il calcolatore progettato e realizzato dalla IBM, ha vinto la sua sfida con Garry Kasparov, campione mondiale di scacchi), altre volte meno. Ma in ogni caso quella dell’Intelligenza Artificiale rimane una sfida doppia. Che mira da un lato a ingegnerizzare “macchine” sempre più sofisticate e dall’altro a riprodurre caratteristiche e capacità cognitive tipiche dell’uomo.
Gli obiettivi? Organizzare, catalogare, gestire, il linguaggio matematico. Rappresentare le conoscenze nei database in maniera intelligente. Costruire robot sempre più “umani”. Creare interfacce web sempre più intelligenti, in grado, a seconda delle cose che gli vengono chieste, di “farsi un’idea”, di definire un profilo di chi ha di fronte, di fornirgli “soltanto” le informazioni che davvero gli servono.

Facciamo un esempio? Immaginiamo di dover realizzare le pagine web di un sito archeologico come Pompei, e che esso sia stato strutturato con una dote assai ricca di database, informazioni, percorsi, notizie.
Una possibilità è quella di finire vittime del paradosso reso celebre da Jean Braudillard, secondo il quale l’inflazione delle informazioni produce la deflazione del senso (una mole potenzialmente infinita di informazioni disponibili può avere come effetto una sostanziale impossibilità di selezionarle, di gestirle e dunque di utilizzarle). Un’alternativa possibile è quella di realizzare l’ipertesto in questione in maniera tale che esso comprenda, grazie alla intelligenza artificiale di cui è stato dotato, chi è la persona che lo sta interrogando e quali informazioni vuole da lui.
Per rimanere all’esempio in questione il sistema dovrebbe poter capire se colui che ha di fronte è un esperto archeologo, uno studente che deve fare una ricerca, un turista curioso che vuole semplicemente qualche indicazione utile per decidere se fermarsi lì o spostarsi di qualche chilometro e visitare gli scavi di Ercolano. Dato che ciascuna di queste persone avrà degli interessi specifici, il sistema si rivelerà tanto più intelligente quanto più sarà in grado, sulla base delle richieste che gli vengono fatte, di selezionare il profilo di chi lo interroga e rendere disponibili, tra le tantissime informazioni di cui dispone, le risorse più appropriate per ciascuna persona.

Genio. Tecnologia. Innovazione. Lavoro. Mai come questa volta le connessioni tra le quattro venerande parole si presentano ambigue. Mai come questa volta le domande, le perplessità, le riserve appaiono ampie. Profonde. Difficili da sciogliere. Anche perché questa volta la posta in gioco non riguarda la possibilità di usare una macchina al posto di un’altra, ma quella di usare una macchina al posto di un uomo.
Ci saranno meno o più occupati? Il lavoro sarà più o meno “buono”? A guadagnarci saranno solo i soliti noti o davvero questa volta ci saranno maggiori opportunità per un numero più consistente di persone?
Davvero difficile immaginarlo. Non basta pensare, come Miles e Snow, che stiamo entrando nella quarta ondata della storia industriale (la prima è quella relativa all’industrializzazione originaria; la seconda quella fordista; la terza quella postfordista), caratterizzata dal versante delle strutture dalla diffusione delle organizzazioni minimali (sferiche, cellulari), dalla crisi della gerarchia, dall’individuazione e dallo sviluppo delle competenze essenziali (core competence) e delle professioni necessarie, dal governo delle carriere; dal versante delle persone dalla capacità di svolgere più iniziative e ricoprire più ruoli, di migliorare attraverso processi di competizione -collaborazione, di investire su se stessi puntando su conoscenza e responsabilità, di ampliare le proprie capacità professionali, di definire in maniera autonoma la propria carriera, di connettersi in ogni momento con qualunque anello della catena di creazione del valore. Non basta neanche sapersi nani sulle spalle di giganti. O gettare lo sguardo oltre l’orizzonte.
Lo sforzo è encomiabile. L’approccio suggestivo. Ma le risposte rimangono necessariamente troppo vaghe e ambigue per essere considerate risolutive. Davvero troppo alta è la possibilità di finire vittima della “fallacia della centralità”, di sottovalutare e contrastare ciò che accade perché si sovrastima la probabilità che, se esso avesse una reale consistenza, se ne sarebbe certamente a conoscenza.

Che fare, dunque?
Ancora una volta potrebbe essere utile guardare a ciò che abbiamo alle spalle. Ad esempio alle rivoluzioni industriali e alla forza con la quale hanno scompaginato assetti sociali, economici, politici, preesistenti. Alle condizioni della classe operaia inglese della prima metà dell’ottocento. Allo sviluppo del lavoro industriale nell’Italia di inizio novecento. Alla crisi del modello sociale fordista nella seconda metà del secolo breve. Alle metamorfosi di città come Genova, Milano, Napoli, Torino. O come Barcellona, Berlino, Liverpool.
Ogni volta grandi sconvolgimenti. Ogni volta vincenti e perdenti sociali.
Quella dell’innovazione continua insomma ad essere una partita doppia. Al tempo dell’intelligenza artificiale così come al tempo della macchina a vapore.
Gli apocalittici (in ogni caso meno pericolosi dei loro antenati luddisti) e gli integrati continueranno a darsi battaglia a colpi di argomenti, idee, scomuniche. Lavori tradizionali scompariranno. Altri si trasformeranno. Nuovi lavori avranno le luci della ribalta. Conquistare più tempo per le persone e per le loro attività sociali, dare più qualità alla prestazione lavorativa saranno probabilmente tra le sfide più impegnative per il mondo del lavoro e per il sindacato, che quel mondo del lavoro intenderà continuare a rappresentare.
In maniera solo in parte provocatoria si potrebbe dire che anche nell’era dell’intelligenza artificiale non c’è nulla di completamente nuovo, almeno sul fronte occidentale. E che esserne consapevoli può essere un primo passo nella giusta direzione per coloro che intendono gestire, nei casi più fortunati dirigere, i processi di innovazione.
Anche in questo mondo in incessante trasformazione, mentre i 15 minuti di celebrità pronosticatici da Andy Warhol sono già diventati 15 secondi, è insomma importante non perdere di vista ciò che già è accaduto. Leggere la Storia aiuta a leggere il futuro. A trovare le parole, le decisioni, le scelte, le azioni capaci di dare voce ai diritti delle persone, quelle più giovani in primo luogo, e al loro bisogno di rappresentanza, mentre si ritrovano, disorientate, a fare i conti con i mille sentieri che si biforcano del cambiamento sociale.

Il gruppo che porta i robot nelle scuole

Loro non farebbero certo come Theodore Schick. Capo del dipartimento di filosofia del Muhlenberg College, Pennsylvania, USA. Che immaginava un futuro minacciato da un uso improprio delle nuove tecnologie digitali. Che temeva potessero avere gli stessi effetti malefici degli anelli resi celebri da Tolkien. Che proponeva perciò di “gettare nel fuoco queste conoscenze tecnologiche, proprio come il Consiglio di Elrond ha votato di distruggere l’anello”.
Loro pensano che l’innovazione è una modalità di pensiero. Che vivere e innovare sono la stessa cosa. Che le NTI rendono accessibile una gamma di conoscenze e di opportunità che non ha eguali in nessuna altra fase dello sviluppo umano. Che non coglierle vuol dire rinunciare a un futuro migliore, per i più giovani in primo luogo. Che perciò è necessario creare connessioni. Costruire relazioni. Valorizzare il talento. La creatività. L’impegno.
Chi sono loro?
Quelli di Tecknos (www.tecknos.it). Un pugno di cervelli. Tanta passione. Lavoro. Un’associazione no profit nata il 30 aprile scorso. Un appuntamento annuale (il 5 e 6 ottobre 2007 a Sarzana, La Spezia, la seconda edizione) per proporre, confrontare, investire in idee e progetti. Per tutte le età.
A sentire Andrea Lagomarsini, presidente di Apai (www.apai.biz) e socio fondatore dell’Associazione, i concetti chiave intorno alle quali Tecknos sta organizzando le proprie reti e le proprie iniziative sono informazione, interazione, incontro, investimento.
È fondamentale la capacità di acquisire conoscenze dalle università, dal mondo della ricerca, dalla scuola, dalle imprese, dalle istituzioni.
Poi occorre che le idee e i progetti vengano divulgati, trasferiti, implementati, in maniera tale da creare ulteriori saperi, conoscenze, opportunità.
La fase di investimento è quella che porta a coadiuvare e sviluppare le attività imprenditoriali vere a proprie; ad accompagnare la fase di start up di nuove imprese e/o di nuovi prodotti; a sviluppare attività di sponsoring; a facilitare l’accesso di giovani dotati nel mondo del lavoro.
Nascono da qui soluzioni avanzate nel campo della domotica come i sistemi di sicurezza di terza generazione AISAC, (www.aisac.it), risultato dell’interazione scientifica, tecnologica, imprenditoriale con soggetti come BTicino, Università di Pisa, CNR.
È ancora da questo background, e dall’incontro con il Prof. Giovanni Marcianò dell’IRRE Piemonte, che nasce il progetto Bee-Bot che consentirà ai bambini delle scuole materne di usare, con il linguaggio dei tasti e dei colori, un vero e proprio robot a forma di ape.
Il progetto interesserà nella fase di avvio alcune classi di due scuole dei comuni di Sarzana (La Spezia) e di Fosdinovo (Massa Carrara).
Gli scopi?
Avvicinare da subito i bambini ai robot e dunque alla tecnologia; invogliarli a sfruttarne le molte potenzialità per ampliare il proprio pensiero, per migliorare la loro capacità di confrontarsi con gli altri, per favorire lo sviluppo di modalità di apprendimento cooperativo.
Il messaggio?
Abituarsi a innovare. Per tutto il corso della vita.

Competizione collaborativa da geni

Giugno 2007. Su Nature vengono pubblicati i risultati della ricerca condotta nell’ambito del programma ENCODE (the Encyclopedia of Dna Elements, 10 i paesi e 80 i gruppi di ricerca partecipanti) che svelano il comportamento di una prima, piccola, preziosa parte del nostro codice genetico.
Il fatto è di quelli rilevanti. Ancora di più lo sono le sue conseguenze. Per la scienza. E per i comuni mortali che da essa si aspettano rimedi e soluzioni per vivere meglio e più a lungo.

Sono trascorsi più di 80 anni da quando Ogburn e Thomas analizzarono 150 casi di scoperte multiple indipendenti e svelarono al mondo che alla base dell’inarrestabile progresso della conoscenza ci sono scienziati e tecnologi che, presi dallo stesso furore scientifico e alle prese con gli stessi problemi, approdano alle medesime soluzioni. Ma quella alla quale ci prepariamo ad assistere si presenta come una vera e propria nuova corsa all’oro. Con in palio una petita assai preziosa, il genoma umano. E una sorpresa: al tempo della società liquida, di internet e dei consorzi internazionali di ricerca più che in ogni altra fase per vincere non basta competere. Occorre collaborare. Interagire. Sapendo che saranno in tanti ad arrivare quasi fino al traguardo. E che a vincere sarà, come sempre, uno solo.

Due le parole chiave: competizione e collaborazione. Vince chi conquista la priorità, chi raggiunge per primo un determinato risultato, chi dimostra originalità di vedute e abilità di attuazione. Si gioca su un campo tanto vasto e inesplorato che non si vince senza condividere dati, informazioni, punti di vista, conoscenza.

Come tutte le storie che si rispettano, anche la nostra ha un protagonista principale. Si chiama Piero Carninci. È senior scientist al RIKEN, Genome Science Laboratory di Saitama, in Giappone. Come direttore scientifico di Fantom 3, il consorzio promosso da RIKEN con 45 istituti di ricerca di 11 paesi, ha sviluppato la tecnologia e prodotto dati complementari a quelli inizialmente pianificati dal consorzio ENCODE. È uno dei molti autori del paper pubblicato su Nature. Un tocco di straordinario genio italiano in un mondo dominato da USA e Giappone. Con lui abbiamo fatto il punto sullo stato della ricerca sul genoma. E su cosa ci aspetta nel futuro prossimo venturo.

Carninci non ama i giri di parole. Spiega che, una volta completata la mappatura del genoma, ci si è resi conto che capirne la funzione era pressoché impossibile: era come avere tra le mani un libro con una monotona sequenza di 3 miliardi di G, A, C, T messe in riga senza conoscere né l’inizio né la fine delle parole, né la punteggiatura né la grammatica. Aggiunge che l’individuazione delle regioni che codificano per proteine ha permesso di comprendere le parole. Che oggi l’obiettivo è comprendere come le “parole” sono correlate l’una con l’altra (punteggiatura, grammatica, ecc.). Che la prossima sfida porta dritto alla comprensione della loro logica.

Il National Institutes of Health (NIH, USA) – racconta – ha lanciato nel 2003 il programma ENCODE proprio con l’obiettivo di sviluppare nuove tecnologie (protocolli per trasformare RNA in informazione) per l’analisi del genoma e applicarle ad una piccola parte (l’1% del totale) del DNA. Si può considerare tale programma come una sorta di prova generale. Resa possibile dalla ricerca di tanti. Ad esempio RIKEN. Che non a caso continuerà a collaborare con ENCODE sia per ciò che riguarda la pianificazione degli esperimenti che per lo sviluppo di tecnologie ad hoc.

Riecco le parole chiave.
Competizione. RIKEN che dal 2001 sviluppa indipendentemente tecnologie per capire dove sono gli mRNA (gli RNA che producono proteine) ed i loro promotori (le sequenze che fanno svolgere al genoma la sua funzione principale: produrre RNA, ogni tipo di RNA, che ha non solo la funzione di trasportare e tradurre informazioni ma anche quella di coordinare il complesso lavoro teso a rendere integrate ed efficienti le migliaia e migliaia di componenti attive della cellula, di contribuire a regolare l’espressione del DNA).
Collaborazione. Le tecnologie complementari di RIKEN ed ENCODE. L’utilizzo da parte di ENCODE della tecnologia ideata da Carninci per identificare senza alcun dubbio l’inizio della trascrizione dei geni, le sequenze che promuovono la trascrizione, chiamate “promotori”.

Capire i promotori – spiega lo scienziato italiano – è essenziale per capire come e quando il genoma agisce. In pratica il promotore è un interruttore che dice “accendi”, “spegni” e, se “acceso”, quanto bisogna produrre.
I diversi tessuti esprimono RNA differenti e quindi proteine differenti. Ad esempio, il muscolo esprime proteine necessarie alla contrazione muscolare, il cervello esprime proteine importanti per l’attività neuronale.
Diversi promotori controllano l’espressione di diversi RNA (e quindi proteine) in diversi tessuti e in questo contesto i RNA che non codificano retroagiscono con il DNA, modificano l’espressione di mRNA dal DNA e quindi modificano il livello di proteine prodotte dall’RNA.

Sembra facile, come ricordava un simpatico omino coi baffi ai tempi di Carosello. Ma non lo è. Perché in tanti avevano definito tutto questo “junk”, spazzatura. E perché la strada del progresso scientifico è da sempre costellata di abbagli, errori, torti, orrori.
Tornando alle scoperte multiple indipendenti di RIKEN ed ENCODE, Carninci spiega perché a livello scientifico è importante che più gruppi che utilizzano tecnologie diverse arrivino alle stesse conclusioni. Grazie agli sforzi di molti gruppi si è capito – continua – che la parte del genoma che produce RNA è almeno il 75%, forse il 93% (a Fantom 3 abbiamo stimato almeno il 63%). La maggior parte di questi RNA non codifica per alcuna proteina. Molti degli RNA prodotti, e molte delle sequenze regolatrici, sono soggette ad evoluzione più rapida di quanti ci si aspetta per delle regioni del genoma che hanno funzione.

Quest’ultimo punto è particolarmente importante, determina un cambiamento di paradigma – aggiunge ancora Carninci. Fino ad ora si riteneva che le sequenze di DNA più essenziali e vitali fossero quelle più lungamente conservate durante l’evoluzione. La regola era: sequenze conservate uguale sequenze funzionali; sequenze non conservate uguale sequenze non funzionali o non importanti. Era una regola troppo grossolana. Confrontando il genoma umano con quello di altri mammiferi ci si è accorti infatti che molte regioni funzionali non sono conservate, che ci sono delle regioni che hanno una evoluzione molto più rapida del resto del genoma. Ciò non solo cambia in maniera significativa l’approccio nella ricerca di elementi funzionali nel genoma, ma è assai affascinante dal punto di vista della comprensione dei processi evolutivi.

Grazie alla pubblicazione del lavoro del NIH abbiamo, per questo 1% del genoma, una mappa molto dettagliata dei geni e delle sequenze che ne regolano l’espressione da cui si potrà partire per “attaccare” il restante 99%. Inoltre abbiamo appreso parecchie regole che è probabile valgano per tutto il genoma. Per tornare all’esempio del libro di 3000 pagine, anche solo il contenuto di 30 di esse può aiutarci a capire il tipo di linguaggio usato, lo stile, il vocabolario, la grammatica, il grado di novità, quanto si impiegherà a leggere tutto il libro, come studiarlo, a chi farlo leggere.

La morale della storia?
ENCODE, RIKEN ed altri consorzi continueranno ad analizzare le sequenze per il restante 99% del genoma umano con le tecnologie sviluppate in questa occasione. Nuove tecnologie verranno sviluppate a partire da quelle usate oggi. L’1% sono solo il punto di partenza – ribadisce Carninci -. Ci sarà un ENCODE per organismi modelli con il genoma molto più piccolo come ad esempio il moscerino della frutta (drosophila melanogaster). Ci saranno molte e rilevanti conseguenze concrete per tutti noi.

Comprendere il funzionamento di base del genoma (la logica mediante cui i geni vengono transcritti), imparare il linguaggio, vuol dire ad esempio imparare come modificare questo linguaggio mediante farmaci e terapie mirate.
Il fatto di trovare che ci sono tanti RNA che non producono proteine suggerisce che questi RNA regolino il comportamento ed il prodotto (output) del genoma; usando questi RNA, si potrà in futuro controllare il comportamento deviante del genoma come, ad esempio, le malattie.
Infine c’è il fascino della conoscenza, la possibilità di porsi mete sempre più straordinarie, come quelle che si riferiscono al cervello umano (Carninci ci rivela che ci sta lavorando; aggiunge che è troppo presto per parlarne; promette che saremo tra i primi ad essere informati dei suoi risultati).

La nostra storia per ora si ferma qui. Speriamo che vi sia piaciuta. Che vi abbia suggerito qualcosa circa le ragioni per le quali assieme agli scienziati e alle loro idee sono importanti i processi organizzativi che essi attivano e hanno alle spalle. Circa le caratteristiche dei processi di competizione – collaborazione in atto. Circa le ragioni per le quali “leggere” il DNA è molto importante per il nostro futuro. E per quello delle generazioni che verranno.

Lo spreco dei saperi

Brain drain. Cervelli che fuggono. Cervelli che a Napoli sono soliti anticipare i soldi per comprare carta e penna e a Trieste risparmiare sulle spese per raggiungere il laboratorio. E che appena mettono piede negli USA o in Giappone si ritrovano catapultati nel mondo magico della ricerca con la erre maiuscola. Dai parco giochi di periferia a Disneyland. Tutto quanto fa opportunità. Crescita professionale. Valorizzazione del proprio genio.
Ci sarà un motivo se l’edizione 2006 dell’European Innovation Scoreboard redatto dal MERIT e dal JRC per conto della Commissione europea, colloca l’Italia tra i sette Paesi che si sono lasciati trainare nella classifica dei 33 paesi (i 27 UE più Croazia, Giappone, Islanda, Norvegia, Svizzera, Turchia e USA) relativa alla propensione all’innovazione. Non sorprende che Giappone e Germania siano tra i 6 paesi considerati leader d’innovazione, né che USA, Regno Unito e Francia siano tra gli 8 che più hanno adottato tecnologia e prodotto know how. Sorprende almeno un pò che l’Italia non sia neppure tra gli 8 paesi che si sono adoperati in maniera significativa per migliorarsi.

Va detto che nel rapporto con USA e Giappone la stessa Europa non sembra reggere il confronto. Pia Locatelli, parlamentare europea PSE, ha ricordato ancora nel giugno 2006 che 400.000 ricercatori laureati in Europa in scienze e tecnologie si trovano negli USA. E le stime forniteci da Philippe de Taxis du Poët, responsabile della Sezione Science & Technology della Delegazione UE in Giappone, dicono che i circa 7500 ricercatori europei lì presenti rappresentano il 24,9% del totale dei ricercatori esteri, a fronte del 48,4% dell’Asia e del 17,7% del Nord America.
Difficile fare salti di gioia. Ma qui è Rodi. E qui, come scriveva il grande vecchio di Treviri, bisogna saltare.

Ma torniamo a casa Italia. Alle ragioni della fuga. Che sono naturalmente tante. Di ordine economico. Organizzativo. Culturale.
La scarsità, ai limiti della decenza e oltre, delle risorse investite in ricerca e sviluppo è quella che più delle altre rischia di condannare il Paese al definitivo declino. In un incompleto elenco di fattori non possono mancare la scarsa propensione sia all’interazione che alla competizione tra istituti e strutture di ricerca; la troppa appartenenza e il troppo poco merito nella selezione delle risorse umane; l’università che, in particolare dopo la “riforma”, riesce sempre meno a essere una incubatrice di opportunità per chi ci lavora e ci studia; la differenza abissale nel modo di concepire la ricerca da parte delle grandi imprese italiane rispetto a quelle dei paesi leader.
Facciamo un esempio?
Piero Carninci, cervello italiano di stanza in Giappone, dove è direttore scientifico del Fantom 3 Consortium (200 scienziati di 45 istituti di ricerca di 11 paesi), risponde così alla domanda relativa al ritorno economico che Riken (l’azienda promotrice del consorzio) si aspetta dalle sue ricerche: “Essendo un non-for-profit il suo obiettivo principale non è fare utili ma avere budget e ritorno di immagine. Il primo arriva dai contributi del governo, dalle attività di spin-off che nel tempo diventano indipendenti e producono business, nuova occupazione, etc., dalle royalties (per la ricerca sul trascrittoma per ora si possono stimare intorno a 1 milione di euro/anno). L’immagine viene dalla tanta ricerca che facciamo, dai risultati che otteniamo, dal riconoscimento da parte della comunità scientifica. Direi che oggi Riken ricava non più di 1/5 di ciò che spende per la ricerca ma naturalmente si lavora per migliorare questo rapporto”.
Le grandi aziende italiane? Hanno deciso da tempo che la ricerca scientifica è un lusso e la possibilità di competere nei settori di eccellenza uno spreco di risorse. Il risultato? A parte la Fiat, con tutti i se e i ma del caso, la grande industria italiana è un’industria che non c’è più, a partire dai settori a più alta tecnologia.
Sta di fatto che il nostro è il solo Paese OCSE a presentare un deficit strutturale nella bilancia tecnologica dei pagamenti. Che il rapporto tra laureati che vanno via e laureati che vengono in Italia è all’incirca di 10 a 1. Che sono in aumento sia i cittadini con alta qualifica che risiedono permanentemente o per periodi lunghi all’estero sia quelli che lasciano l’Italia per un periodo abbastanza lungo da richiedere la cancellazione della residenza. Che siamo il paese europeo con meno studenti universitari stranieri e meno occupati stranieri in attività scientifiche e tecnologiche.
Tutto questo non si traduce solo in una perdita secca di cervelli e di risorse investite per formarli. Accade anche, ovviamente, che i cervelli in fuga contribuiscano in misura significativa alla ricerca e allo sviluppo dei paesi nei quali lavorano. Che l’Italia per utilizzare i risultati delle ricerche dirette dai tanti Carninci in giro per il mondo deve comprare i brevetti (tecnicamente viene definito trasferimento tecnologico inverso). E che tutto ciò non è certo il massimo per la nostra bilancia tecnologica dei pagamenti.
È come nei racconti circolari di Borges, dove inizio e fine si intrecciano, si confondono, si sovrappongono: la scarsa propensione all’innovazione favorisce la fuga di cervelli, la fuga dei cervelli contribuisce ad abbassare il tasso di innovazione, un ancor più basso tasso … e così via discorrendo.

Per quanto tempo continueremo a pensare di potercelo permettere?

La mobilità delle menti fa bene al sapere, lo spreco e la dispersione no

È bene non fare confusione. Evitare di finire come Massimo Troisi che, in Ricomincio da tre, deve arrendersi al luogo comune che vuole che un napoletano non possa viaggiare ma soltanto emigrare.
Cosa intendiamo dire? Che la fuga di cervelli (brain drain) è solo una parte del fenomeno dei “cervelli che si spostano”, che comprende anche lo scambio di cervelli (brain exchange), la circolazione di cervelli (brain circulation) e lo spreco di cervelli (brain waste).
Di cosa si tratta? Secondo l’Ocse (1997) il primo definisce il flusso complessivamente equilibrato di risorse ad alta qualificazione tra due paesi; la seconda il flusso di risorse con le stesse caratteristiche che scelgono altri paesi per completare e perfezionare gli studi, fare le prime esperienze lavorative e poi tornare a casa per mettere a frutto le conoscenze e le competenze acquisite; il terzo il flusso di risorse ad alta qualificazione che, nell’ambito di uno o più paesi, si sposta verso impieghi diversi rispetto a quelli per i quali sono stati formati.
Il messaggio nella bottiglia potrebbe essere il seguente: il fatto che di notte tutti i gatti sembrano grigi non vuol dire che lo siano. Come dimostra il fatto che la circolazione e lo scambio di cervelli fanno solo bene alla salute. Dei cervelli, dei paesi dai quali provengono e di quelli che li ospitano. La fuga e lo spreco decisamente no.

Non fabbriche di lauree, ma di idee

Ricordate Matrix? Il primo della ormai mitica trilogia dei fratelli Wachowski?
La scena è quella del “Goth club from hell”. La musica, frastornante, quella di Rob Zombie. Le parole, quelle della splendida Trinity: “It’s the question that drive us, Neo. È la domanda a guidarci, Neo”.
La domanda è: “Che cos’è Matrix?”.
Che cos’è l’e-learning, perché, a quali condizioni, con quale struttura, per chi, l’Università telematica può rappresentare una reale opportunità sono invece le domande dalle quali è partita la ricerca sulle università telematiche nell’anno accademico 2005 – 2006.
Quattro università e un’idea per descrivere un fenomeno destinato a far molto discutere.
Le quattro università sono la Guglielmo Marconi, la TEL.M.A, la Nettuno e la Da Vinci. L’idea è che i fatti dicano più di mille parole sul mondo dell’istruzione online universitaria.
Proviamo dunque a guardare almeno alcuni di questi fatti più da vicino:
19 facoltà attivate, 20 corsi di studio (nessuno dei quali attivato nel rispetto dei requisiti minimi di docenza), 2513 studenti, 3 docenti di ruolo (uno dei quali da anni in aspettativa per motivi parlamentari);
lo start up, di fatto garantito dalla possibilità di aggirare la norma;
la possibilità di organizzarsi come meglio si crede ad ogni livello (di università, di facoltà, di corso di laurea), e per ogni ambito (organizzazione della didattica, utenza sostenibile, competenze richieste, struttura e ripartizione dei crediti, test di accesso, recupero dei debiti formativi, ecc.);
un’utenza sostenibile pari a 7396 studenti;
in un caso, quello della TEL.M.A., al 2005 – 2006, oltre ai docenti mancano anche le strutture (“sulla base della relazione del Comitato Nazionale di Valutazione del Sistema Universitario, non vi è compatibilità fra le esigenze di funzionamento del corso e le caratteristiche e la quantità delle strutture messe a disposizione dello stesso per la durata normale degli studi”);
convenzioni che dispensano crediti con criteri decisamente discutibili e rigorosamente a pioggia.
A chi giova tutto questo? Perché una tale quantità di eccezioni, disservizi, mancato rispetto degli standard minimi, intrecci perversi? Perché dare questo tipo di risposta alla domanda di istruzione universitaria online mentre nel resto del mondo tecnologicamente sviluppato la ricerca e le buone pratiche fanno passi da gigante?
Sono state queste domande a guidarci. Le risposte sono venute quasi da sole.
Risposte che se da un lato confermano il deficit di virtù civiche di cui soffre il Paese dall’altro evidenziano, motivano, dimostrano, la possibilità di una decisa inversione di rotta.
Non servono fabbriche di lauree. Occorrono fabbriche di idee. Di conoscenze. Di competenze. Di futuro. Anche via web.

Napoletani salvasilicio

RD39. Effetto Lazarus.
No, non è il titolo del prossimo film di James Bond. Sono il numero di repertorio ed il nome con il quale potete rintracciare, al CERN di Ginevra, la scoperta fatta, era l’anno di grazia 1997, da Vittorio Palmieri, Luca Casagrande, Gennaro Ruggiero, Antonio Esposito, Francesco Vitobello.
Come forse avrete già intuito, i cinque sono tutti napoletani. Ma solo uno di loro al tempo lavorava nella propria città, al CNR.
Gli altri? In giro per il mondo. Precisamente alle Università di Berna, di Lisbona, di Glasgow e all’ETL (Electrotechnical Laboratory) MITI di Tsukuba.
Cosa hanno scoperto? Che è possibile “resuscitare” le sfoglie di silicio utilizzate per la rilevazione di particelle. Rigenerarle. Farle rivivere. Immergendole in azoto liquido a meno 207 gradi celsius.
Perché la scoperta è importante?
Perché di norma le sfoglie di silicio hanno un ciclo di vita media di 1 anno. Perché gli esperimenti di fisica delle particelle si basano su raccolte di dati che si effettuano nel corso di 5, 10, talvolta anche 15 anni. Perché montare ogni anno decine di metri quadri di rilevatori poneva dei limiti enormi a chi fa ricerca in questo settore.
A raccontarci tutto questo è Antonio Esposito. Ingegnere Fisico. 43 anni. Una vita da scienzato. Cominciata al CNR di Napoli, 4 anni vissuti nel segno della superconduttività. Poi l’esperienza in Giappone, alla ETL di Tsukuba, dove è rimasto 5 anni, lavorando allo sviluppo di nuovi materiali superconduttivi e di dispositivi per la rilevazione (detector) di particelle. Dopo il Giappone, un’esperienza di 2 anni di insegnamento in Germania, alla TUM (Technical University Munich). Poi l’approdo a Ginevra.
E Napoli?
Antonio per ora non pensa di tornarci. Ci tiene a sottolineare però che continua ad amare la sua città. E che continua a farlo nel modo che conosce meglio. Investendo. Facendo ricerca. Impresa. Creando a Napoli, insieme a Vittorio e Francesco, due della vecchia band di Lazarus, aziende come Incept (www.incept.it), che sviluppa Technology on Demand.
Antonio, Vittorio e Francesco lo ritengono il loro esperimento più difficile.
Le ragioni – mi dice Antonio – uno come te le conosce bene.
Ma noi ci crediamo. Non vogliamo rinunciare alla possibilità di ridare indietro alcune delle cose che l’università, le strutture di ricerca, della nostra città ci hanno dato. Alla possibilità di riportare a Napoli almeno un pò di ciò che abbiamo imparato in giro per il mondo.

Allestire il cantiere delle idee

Serendipity. Concetto sconosciuto ai più. Buffo anzichenò. Con un certo non so che di magico. Una sorta di
supercalifragilistichespiralitoso della ricerca sociologica. Che si deve alla genialità di Robert K. Merton. Che lo ha riferito «all’esperienza, abbastanza comune, che consiste nell’osservare un dato imprevisto, anomalo e strategico, che fornisce occasione allo sviluppo di una nuova teoria o all’ampliamento di una teoria già esistente».
Perché vi raccontiamo tutto questo? Perché abbiamo un’idea. L’idea che l’interazione di menti preparate in ambienti socio cognitivi serendipitosi possa diventare un acceleratore di opportunità per tutti quei soggetti – città, imprese, università – che hanno deciso di puntare sull’innovazione. Scrutare i segni del tempo, ridefinire il proprio ruolo nella società, conquistare nuovi spazi di mercato.
L’idea è insomma che “per genio e per caso” si possa crescere di più. E sfruttare meglio le opportunità.

La nostra idea ha una storia alle spalle: quella di Piero Carninci, scienziato triestino che con Yoshihide Hayashizaki dirige il Fantom International Consortium, promosso dalla Riken Genome Network Project con 45 istituzioni e 192 scienziati di 11 Paesi.
Perché la sua storia è importante? Perché in Italia Carninci non ha trovato la possibilità di stabilirsi come ricercatore. Perché dalle nostre parti le domande per lui usuali erano: «Prenderòlo stipendio?» o «devo cambiare lavoro?» Mentre appena giunto in Giappone sono diventate: «Come capire la funzione del genoma?» o «come sviluppare tecnologie che permettono l’analisi in parallelo di molti geni?».
Perché insieme alla sua nutrita band di cervelli ha scoperto che il trascrittoma (Rna) modifica il Dna e identificato i promotori contenuti nel genoma. E perché la sua storia ha una morale. Che lui stesso ha così sintetizzato, in un articolo: «Dall’Italia ho avuto tantissimo, in termini di educazione e primi anni di esperienza lavorativa. Tuttavia, nel momento nel quale avrei potuto restituire qualcosa al mio Paese, non c’e stata nessuna struttura pronta a una collaborazione produttiva. Invece in Giappone, come negli Stati Uniti, la ricerca è un investimento in conoscenza e il ricercatore è considerato uno che deve produrre conoscenza e brevetti per lo sviluppo del Paese».

Nessun uomo è un’isola. E nessuna idea. Come ci ha raccontato la copertina di Nòva, Genius Loci, del 6 luglio scorso. Ma la forza della nostra idea sta dunque nella sua possibilità – capacità di prendere atto, creare senso, sfruttare il potenziale. Prendere atto di che cosa? Del permanere – a prescindere dagli argomenti in questione, siano essi i distretti della conoscenza o le nuove forme di marketing territoriale, per restare all’esempio citato – di una oggettiva difficoltà a uscire dai confini della sperimentazione e a delineare una prospettiva nella quale le buone pratiche siano la norma.
È un prendere atto che non significa subire, ma farsi carico fino in fondo di tale difficoltà per avere più possibilità di superarla.
Come? Ad esempio guardando alla realtà come a una costruzione continua, il prodotto dell’attività delle persone che danno senso alle situazioni che hanno istituito e nelle quali si trovano calate.
È la logica del sensemaking, la cui definizione è «un processo fondato sulla costruzione dell’identità, retrospettivo, istitutivo di ambienti sensati, sociale, continuo, centrato su (e da) informazioni selezionate, guidato dalla plausibilità più che dall’accuratezza».

Proprio il carattere di cantiere dai lavori perennemente in corso caratteristico del sensemaking favorisce la possibilità di fare un salto culturale dalla Grecia alla Cina e passare dal modello di efficacia basato sulla massimizzazione del rapporto mezzi, fini a quello basato sulla capacità di sfruttare al massimo il potenziale insito nella situazione data. Un modello che utilizza al meglio tutti i fattori e i dati disponibili. Accompagnando i percorsi invece di avere la pretesa di guidarli. Facendo in modo che l’effetto sia
prodotto dalla situazione stessa.
In definitiva, la nostra idea è che in Italia esistano molte condizioni, in termini di intelligenza, creatività, spirito di iniziativa, capacità di innovazione, favorevoli allo sviluppo di ambienti socio cognitivi serendipitosi e dunque all’attivazione di processi virtuosi “per genio e per caso”. E che davvero ci possano essere migliaia di “Serendipity Lab” nel nostro futuro, specie se le istituzioni, le imprese, le università riusciranno a interpretarne la necessità e ad accompagnarne la crescita. A favorire la propensione a (ri) definire identità, attivare e dare senso agli ambienti nei quali operano. A incentivare la voglia di fare rete. A sostenere, come ha suggerito Enzo Rullani su questo stesso giornale, la capacità di industrializzare le idee migliori. Come sempre in faccende di questo tipo, niente è scontato.

By a stroke of genius and by change

In the last few months we have found out that we are facing a new epoch-making change. The rule called, “a gene, a protein”- that is all DNA information transferred in one direction only to molecoles which transcribe and translate it as amino acids – has now been questioned once and for all. Transcriptome (RNA) has not only the function of transporting and translating information but also the function of coordinating the complex work to make those thousands and thousands of components active in a cell, helping regulate DNA expression.
These secrets of RNA have been discovered by an international association made up of 190 scientists, called Fantom Consortium 3, whose leader is from Italy, Piero Carninci. We asked him to continue talking about this extraordinary discovery and the new horizons set.
We asked him to do so but from a particular point of view, that perspective related to the model called serendipity which, as written by Robet Merton, “refers to the quite common experience of observing an unpredicted, anomalous and strategic datum, which paves the way to the development of a new theory or improves an existing one” (Bologna, 2002).
To us, the point of view is important for at least three reasons: because it adds another element to a story, that story related to the discovery occurred by a stroke of genius or by chance, which refers to numerous and well-known people -including Francis H. C. Crick and James D. Watson who, as they themselves said, would have never discovered the double helix model related to DNA molecular structure without the help of Jerry Donohue, a young U S crystallographer.
Because it exceeds all usual logical terms related to scientific discoveries, it sees the study developed by a researcher as it really is and highlights what has been done to reach that discovery, as said Richard P. Feynman during his opening speech for the awarding of the Nobel Prize (Science, n°13, 12th August 1966, pgs. 699-708), ” when we write an article published in a scientific journal we usually refine our work as much as possible, hiding all traces, not making things complicated or describing as wrong the first idea occurred to us and so on [… so we end up losing our point of view …], what has been really done to reach that aim”.
Because it helps understand the reasons why in an atmosphere full of socio-cognitive interactions it is more likely that chance will pave the way to that particular discovery.
So, due to the collaboration with Mr Carninci, here we are summarising the new frontier of science related to RNA in the light of the definition of unpredicted, anomalous and strategic event given by the well-known U S sociologist.

Unpredicted event : Merton says that “a study directed to verify an hypothesis paves the way to a chance by-product, to a disregarded observation which is important related to theories which weren’t in doubt at the beginning of the process.
Was this the case occurred to you?

Yes, it was. We started from the idea that the genome produced mRNA (messenger RNA) which in turn produced proteins, that is what is stated by the central dogma related to molecular biology. At that time, late 1990s, it was understood that there were 70 to 100 thousand different genes which code themselves as proteins and these estimates derived from quite complex measurements of the number of RNAs inside a cell.
Our data of cDNA (complementary DNA), that is DNA copied by mRNA, gave consistent results with existing theories which in fact referred to 70-100 thousand but they were in contrast to the number of genes, around 22000, found in the human or murine ( of mice) genome. At the same time we began the analysis of our cDNAs and found out that half of them did not code as any proteins. However it took us a very long time to understand that these cDNAs were not fragments of a genome, cloned by mistake, but they were, in fact, a lot of different RNAs which did not code as proteins.

Anomalous: Meron writes that “the observation is anomalous, surprising because it seems inconsistent with the prevailing theory or with facts already stated. Either way the seemingly inconsistency arouses curiosity, so a researcher is given the opportunity of making sense of that new theory, and he or she puts it in a wider horizon in knowledge”.
What was your anomalous thing, your surprise?

As already suggested, from the analysis of these cDNAs we found these RNAs which did not have anything to do with the “central dogma”, in other words they did not code as proteins. At first we did not know what to do with these objects which seemed undesired and useless. I also had some problems with colleagues who thought that those RNAs were an artificial version of my experiments before taking into consideration something outside the dogma. At a meeting in August 2000 one of them maintained that those RNAs were only junk.
It is meaningful how long it takes you before observations which now seem logical can change the old dogma and how we as scientists are also not so much flexible, in one word it taught us a lot.

You found yourself in the same situation described by Herbert Butterfield. To him, “the most difficult form of mental activities to induce is the art of using the same handful of data as you had before, and placing them in a new system of reciprocical relations by giving them a different basic structure, and that means thinking it over again” (The Origins of Modern Science, 1300-1800, London, G. Bells & Sons, 1949, p.1).

Exactly. Fortunately after a while we started to think about what these RNAs could do and if their presence could help understand some regulating processes related to genes or differential splicing (splicing refers to a process which cuts and put together eukaryotic mRNAs into shorter pieces, which are then utilised by the cell in that form in order to produce proteins. We also noticed that these RNAs are expressed in various tissues, have different regulations and we, finally, decided to see their function, but this is the part already published in Science of September 2.

Strategic: Merton remembers that “when saying that an unpredicted event must be strategic, that is it must have the sort of implications which affect the general theory, we are obviously referring more to what the observer adds to the datum than to the datum itself. It goes without saying that the datum wants an observer to be sensitive from a theoretical point of view, in other words he or she must be capable of finding a rule from single things”.
What can be developed from your discovery?

The basic discovery is that there is a new world made up of RNAs which operate regulating various activities in a cell. Fortunately, working with a genome or transcriptome, all data are filed into public databases, for this reason every lab can improve its research using the Internet, which means universally.
The main observation is that the transcription and production or the presence of certain RNAs operate regulating other types of RNAs. Once understood the detail and specific features, these RNAs may be used as a means to control the expression of other RNAs. If, for instance, one of these RNAs to control were responsible for a desease – e.g. cancer, the possibility of regulating its expression procuces positive results. We know, for example, that drugs modulating gene activities or their products – that is proteins – create side effects and often toxicity. On the contrary everyone of us has RNA, for this reason finding RNA effectors can have huge advantages.

As we will partially see, we will now leave Merton and go to the point called “brain drain”, a situation which affects us all more and more when we meet people like you, who can demonstrate his value only leaving Italy.
It’s been written a lot about your “running away” to Japan in the last few weeks after publishing your discovery in Science. But is it really so? or did you, too, like Troisi (a famous Italian actor-director) – who in the movie called “Ricomincio da tre” must accept the idea of always being an immigrant, as people use to say, and not just a person who is travelling – leave Italy by choice and join the “brain drain” sort of club, not wanting to?

At first I would suggest everyone going abroad for a while, whatever can be his or her field or subject, because learning how to adapt yourselves to different cultures and languages gives you a lot of advantages apart from being an important way to improve yourselves from a personal and cultural point of view. Then I would like to add that unfortunately I did not have the chance to work as a researcher in Italy, even trying to do so for several years, either at a University or for the biotechnological industry.
I had a lot from Italy in terms of education and first work experiences. However just when I could have given something back to my country, there were no organizations collaborating in a productive way, at least in Trieste.
To be sincere before leaving, the idea of going to Japan seemed to me a very complicated and difficult thing. However once landed at Tokyo airport, things immediately changed for the best.
What at once stroke me was the end of the frustration I felt in Italy where questions I usually put to myself were: Will I be paid next salary? Am I supposed to change my job? If I don’t buy meat and only eat spaghetti will I have the money to buy petrol I need to go to the lab?
When in Tokyo I suddenly asked myself how to understand genome function or how to develop new types of technology to analyse many genes in parallel.

Something very different from Italy!

Of course. The fact is that in Japan, like in the USA, research organizations are well-organized (as Merton suggests, not in the interview). To research means to invest in knowledge. Working as a researcher is a real job, meaning that a researcher is not seen as a parasite but one that must produce knowledge (and licences) for the developing of the country.
So it is easy to understand that life in Japan is paradoxically easier than in Italy.

Will you ever get back to Italy?

A lot of people have already asked me this question. I don’t know. You never know! I can say that I dream of a situation where I can live between two different worlds and let them interact, that I’m still collaborating with great pleasure with Italian associations and researchers. But I can’t give up living in a country like Japan and in a city like Tokyo. I am probably too lazy to think of leaving everything here in Japan, get back to Italy and struggle in a University, only to have opportunities which are far smaller than here in Japan.

Per genio e per caso

Abbiamo scoperto da pochi mesi di essere fronte a un nuovo cambiamento epocale. La regola “un gene, una proteina”, secondo la quale il flusso di informazione posseduto dal DNA si trasferisce in maniera unidirezionale alle molecole che lo trascrivono e lo traducono nel linguaggio degli amminoacidi, è messa definitivamente in discussione. Il “trascrittoma” (RNA) ha infatti non solo la funzione di trasportare e tradurre informazioni ma anche quella di coordinare il complesso lavoro teso a rendere integrate ed efficienti le migliaia e migliaia di componenti attive della cellula, di contribuire a regolare l’espressione del DNA.
La scoperta dei segreti dell’RNA si deve al lavoro di un consorzio internazionale formato da 190 scienziati, Fantom 3, che ha come leader un italiano, Piero Carninci. Ed è proprio a lui che abbiamo chiesto di tornare a ragionare di questa straordinaria scoperta e dei nuovi orizzonti che essa determina.
Gli abbiamo chiesto però di farlo da una prospettiva particolare, quella data dal modello di serendipity che, come ha scritto Robert Merton, ”si riferisce all’esperienza, abbastanza comune, che consiste nell’osservare un dato imprevisto, anomalo, strategico, che fornisce occasione allo sviluppo di una nuova teoria o all’ampliamento di una teoria già esistente” (Bologna, 2002).
E’ una prospettiva a nostro avviso interessante per almeno tre ragioni:
perché aggiunge un ulteriore tassello a una storia, quella delle scoperte fatte per genio e per caso, che ha avuto protagonisti numerosi e illustri (ivi compresi Francis H. C. Crick e James D. Watson che, come loro stessi hanno raccontato, senza l’aiuto di Jerry Donohue, un giovane cristallografo statunitense, forse non avrebbero mai scoperto il modello a doppia elica della struttura molecolare del DNA);
perché permette di andare al di là dei termini puramente logici con i quali vengono presentate le teorie scientifiche, di ricostruire il corso dell’indagine così come è stata svolta dal ricercatore, di mettere in evidenza ciò che effettivamente è stato fatto per arrivare a quella scoperta (come ebbe a dire Richard P. Feynman nel corso della sua prolusione in occasione del conferimento del Premio Nobel (Science, n° 153, 12 agosto 1966, pp. 699 – 708) “abbiamo l’abitudine, quando scriviamo gli articoli pubblicati sulle riviste scientifiche, di rendere il lavoro quanto pi� rifinito possibile, di nascondere tutte le tracce, di non prenderla per i vicoli ciechi o di descrivere come la prima idea che si era avuta era sbagliata, e così via, [… cosicché finiamo col perdere di vista …] quello che si � fatto veramente per arrivare a quel lavoro);
perché aiuta a comprendere le ragioni per le quali in ambienti ricchi di interazioni socio – cognitive è più probabile che il caso favorisca determinate scoperte.
Con la “complicità” di Carninci eccoci dunque a ripercorrere le tappe della nuova frontiera dell’RNA alla luce della definizione che il grande sociologo statunitense ha dato di “imprevisto”, “anomalo” e “strategico”.

Imprevisto: Merton afferma che “una ricerca diretta alla verifica di una ipotesi dà luogo ad un sottoprodotto fortuito, ad una osservazione inattesa che ha incidenza rispetto a teorie che, all’inizio della ricerca, non erano in questione”. E’ accaduto qualcosa di simile nel corso del vostro lavoro?

Sì. Eravamo partiti dall’idea che il genoma producesse mRNA (RNA messaggero, N.d.R.) che a loro volta producevano proteine, che corrisponde al dogma centrale della biologia molecolare. Al tempo, alla fine degli anni ’90, si pensava anche che ci fossero 70-100 mila geni differenti che codificano per proteine, e queste stime derivavano da misurazioni piuttosto complesse sul numero degli RNA in una cellula.
I nostri dati sui cDNA (DNA complementare, cioé DNA copiato da un mRNA), ha dato risultati coerenti con le teorie precedenti, che parlavano per l’appunto di 70-100 mila geni, ma erano in contrasto col numero di geni trovati, 22 mila circa, nel genoma umano o murino (il banale topo domestico, N.d.R.). Allo stesso tempo, abbiamo iniziato l’analisi dei nostri cDNA e abbiamo scoperto che una buona metà non codificava per alcuna proteina, ma ci è voluto parecchio tempo per capire che questi cDNA non erano frammenti di genoma, clonati per errore, ma in realtà erano un sacco di RNA diversi che non codificano per proteine.

Anomalo: Merton scrive che “l’osservazione è anomala, sorprendente, perché sembra incongruente rispetto alla teoria prevalente, o rispetto a fatti già stabiliti. In ambedue i casi, l’apparente incongruenza provoca curiosità; essa stimola il ricercatore a trovare un senso al nuovo dato, a inquadrarlo in un più ampio orizzonte di conoscenze”.
Qual è stata, nel vostro caso, l’anomalia, la sorpresa?

Come in parte ho già detto, l’aver trovato dall’analisi dei nostri cDNA, questi RNA che non avevano nulla a che fare col “dogma centrale”, ovvero non codificavano per alcuna proteina. All’inizio, non sapevamo che fare con questi oggetti, che sembravano cose indesiderate ed inutili. Ho avuto abbastanza difficoltà anche con certi colleghi, che ritenevano questi RNA un artefatto dei miei esperimenti prima di considerare qualcosa al di fuori del dogma. Uno di loro, ad un meeting nell’agosto del 2000, ha dichiarato che questi cDNA erano semplicemente “junk” (spazzatura, N.d.R.).
E’ significativo quanto tempo passa prima che delle osservazioni, che ora sembrano logiche, possano cambiare il vecchio dogma e come anche noi scienziati siamo così poco flessibili: un grande insegnamento.

Ti sei trovato nella situazione descritta da Herbert Butterfield, secondo il quale “di tutte le forme di attività mentale la più difficile da indurre […] è l’arte di adoperare la stessa manciata di dati di prima, ma situarli in un nuovo sistema di relazioni reciproche fornendo loro una diversa struttura portante; il che significa praticamente ripensarci su” (The Origins of Moderne Sciences, 1300 -1800, London, G. Bell & Sons, 1949, p. 1).

Esattamente. Per fortuna a un certo punto abbiamo iniziato a pensare a cosa potessero fare questi RNA, e se la loro presenza potesse aiutare ad interpretate alcuni meccanismi di regolazione del gene, o di regolazione dello splicing differenziale (lo splicing è il meccanismo che taglia e ricuce gli mRNA eucariotici in pezzetti più corti, che sono poi utilizzati dalla cellula in questa forma per la produzione di proteine). Abbiamo anche visto che questi RNA sono espressi in vari tessuti, hanno diverse regolazioni, ed alla fine abbiamo deciso di vedere la loro funzione, ma questa è la parte pubblicata su Science del 2 settembre.

Strategico: Merton ricorda che “affermando che il fatto imprevisto deve essere strategico, cioè deve avere implicazioni che incidono sulla teoria generalizzata, ci riferiamo, naturalmente, più che al dato stesso, a ciò che l’osservatore aggiunge al dato. Com’è ovvio, il dato richiede un osservatore che sia sensibilizzato teoricamente, capace di scoprire l’universale nel particolare”.
Quali possono essere gli sviluppi della vostra scoperta?

La scoperta di base è che c’è un mondo nuovo costituito da RNA che funzionano regolando varie attività nella cellula.
Per fortuna, lavorando col genoma e col trascrittoma, tutti i dati vengono depositati nei database pubblici, per cui gli sviluppi possono essere portati avanti da qualsiasi laboratorio che sia in possesso di un collegamento internet, ovvero, universalmente.
L’osservazione principale è che la trascrizione e produzione o la presenza di certi RNA ha la funzione di regolare altre specie di RNA. Una volta capiti i dettagli e la specificità, questi RNA potranno essere usati come strumenti per controllare l’espressione di altri RNA. Se, ad esempio, uno degli RNA da controllare fosse responsabile di una malattia (ad esempio il cancro), la possibilità di regolarne l’espressione produce conseguenze positive. Sappiamo ad esempio che i farmaci che modulano l’attività di geni o dei loro prodotti (proteine) presentano effetti collaterali e spesso tossicità; al contrario, tutti noi possediamo RNA, per cui scoprire gli RNA effettori può dare grossissimi vantaggi.

Lasciamoci, come vedremo solo in parte, alle spalle Merton e veniamo al tema “cervelli in fuga”, sempre di grande attualità quando si incontrano personaggi come te, che solo fuori dall’Italia riescono a dimostrare il proprio valore.
Si è scritto molto, nelle settimane successive alla pubblicazione su Science della vostra scoperta, della tua “fuga” in Giappone. Ma è davvero così? O anche tu come Troisi (che in “Ricomincio da tre” deve arrendersi al luogo comune che vuole che un napoletano non possa viaggiare ma soltanto emigrare) hai lasciato l’Italia per scelta e ti ritrovi iscritto tuo malgrado nel club dei “cervelli in fuga”?

Detto che personalmente raccomanderei a chiunque di andare all’estero per alcuni anni, qualunque sia il campo o la disciplina di suo interesse (imparare ad adattarsi a culture e lingue diverse dà grossissimi vantaggi oltre ad essere un fattore importante di arricchimento personale e culturale), aggiungo che purtroppo in Italia non ho avuto la possibilità di stabilirmi come ricercatore, pur avendoci provato per diversi anni, sia in campo universitario che nell’industria biotecnologica.
Dall’Italia ho avuto tantissimo, in termini di educazione e primi anni di esperienza lavorativa. Tuttavia, nel momento in cui avrei potuto restituire al mio paese qualcosa, non c’e stata nessuna struttura, almeno a Trieste, pronta ad una collaborazione produttiva.
Sinceramente, prima della partenza andare in Giappone mi sembrava una cosa estremamente complicata e difficile. Tuttavia, una volta atterrati all’aeroporto di Tokyo, le cose sono andate immediatamente per il meglio.
Quello che mi ha colpito da subito è la fine della frustrazione che avevo in Italia, dove le domande tipo che rivolgevo a me stesso erano: prenderò il prossimo stipendio? devo cambiare lavoro? se non compero la carne ma mangio solo spaghetti, riesco ad avere i soldi per fare benzina e andare in laboratorio?
A Tokio sono prontamente passato a domandarmi come capire la funzione del genoma o come sviluppare tecnologie che ti permettono l’analisi in parallelo di molti geni.

Una bella differenza.

Proprio così. Il fatto è che in Giappone, come negli Stati Uniti, le strutture di ricerca sono organizzate (ecco che ritorna Merton, N.d.R.), la ricerca è un investimento in conoscenza quella del ricercatore è una professione vera, nel senso che il ricercatore non è considerato un parassita ma uno che deve produrre conoscenza (e brevetti) per lo sviluppo del paese.
E’ facile capire come, con queste premesse, la vita in Giappone sia paradossalmente più facile che in Italia.

Tornerai?

In tanti me lo hanno chiesto. Non lo so, del futuro non c’è certezza. Posso dire che sogno una posizione in cui posso vivere tra due mondi diversi e farli interagire, che continuo a collaborare con molto piacere con istituti e ricercatori italiani, ma all’energia che mi dà il fatto di vivere in un paese come il Giappone e in una città come Tokyo non riesco a rinunciare. Probabilmente sono troppo pigro per pensare di lasciare tutto qui, rientrare in Italia e combattere, in qualche università, per avere opportunità molto al di sotto di quelle che ho qui.

Salari più bassi non servono. La svolta è nell’innovazione

Le luci dela ribalta tornano dunque ad essere puntate sul Sud ed i suoi mille problemi. Non è una cosa da poco. Usciamo, infatti, da una fase di profonda rimozione della questione meridionale. Perfino dal punto di vista terminologico. Utilizzando l’espressione aree depresse si tendeva nei fatti a definire un Paese, il nostro, nel quale la crisi era senza confini territoriali. Ci voleva la ripresa economica per dimostrare che così non era, che qualche ragione pure l’avevano coloro che sostenevano le specificità e la drammaticità della crisi del Meridione. Ciò detto, è evidente che l’esigenza vera che abbiamo di fronte è quella di conseguire risultati concreti. Da questo punto di vista, credo che si debba puntare ad uno sviluppo in grado di autoalimentarsi, ad una crescita economica che crei posti d lavoro competitivi.
Il corretto funzionamento del sistema di emrcato è in questo senso decisivo. Mercato inteso innanzitutto come regole, norme trasparenti che garantiscano la concorrenza, che mpediscano lo sfruttamento di posizioni dominanti, che favoriscano la qualità dei prodotti e dei sistemi produttivi. Per fare in modo che all’interno delle regole possano emergere i più bravi e non i più favoriti o i più protetti.
Un sstema di regole di questo tipo può favorire la nascita e a diffusione di nuove imprese. E’ in questo quadro che il sindacato nitario ha chiesto che il coordinamento e l’indirizzo per il nuovo intervento pubblico sia attribuito al Ministero del Bilancio; che sano formalizzati i rapporti cn la Conferenza delle Regioni per concertare le politiche di sviluppo e l’utilizzo dei fondi CEE; che sia potenziato lo strumento dell’accordo di programma. Il tutto, con al centro una grande idea guida: l’innovazione. Esiste una teoria, definita del catching up, che sostiene che quando n un’area poco sviluppata vengono immesse nuove tecnologie, s ottiene una crescita media della produttività del lavoro superiore a quella dei paesi più avanzati. Francamente, non si comprende perché in questo Paese, da parte di governo e imprenditori, non si riesca mai ad andare al di là della richiesta di salari più bassi.
L’innovazione può essere la chiave per rpensare in positivo il rapporto tra sviluppo produttivo e città. Bast pensare ai sistemi di infrastrutture, dalle telecomunicazioni ai trasporti. E le aree deindustrializzate, quelle che oggi sono cimiteri industriali, possono rappresentare, come dimostrano gli esempi di Pittsburgh, Lione, Torino, Milano, grandi risorse per il futuro.
C’è bisogno di profonde innovazioni nei rapporti tra la formazione ed l lavoro, sia per quanto riguarda i giovani che i lavoratori occupati.  Sage lavorativi per sudenti, rqualificazione dei lavoratori anche attraverso un utilizzo intelligente delle congiunture negative sono la prassi in tutti i paesi più avanzati. Può essere questa una strada da sperimentare nel Sud, insieme a forme flessibili di utilizzazone degli orari di lavoro? Tutto questo richiede evidentemente un salto di qualità da parte di governo, istituzini locali, imprenditori, sindacato.
Il nostro no alla Finanziaria è forte anche perché in essa di tutto questo non c’è traccia. E le stesse affermazioni del Presidente del Cnsiglio a Melfi ci sembrano per molti versi rituali e generiche.
ci vuole coraggio. Anche per ritornare su scelte che si stanno rivelando ingiuste e dannose. Altrimenti si fa solo prpaganda. Mentre qui abbiamo un disperato bisogno di fatti.