• 6 November 2024

Indice

Da diverso tempo ormai non facciamo che essere testimoni nel mondo di conflitti continui e irragionevoli. Sono tanti i giovani mandati al fronte (userei ancora questo termine che arcaico non diventerà mai) e sono tanti quelli che non fanno più ritorno. Chi riesce ad arrivare alla fine di una missione torna profondamente cambiato. Il disturbo post-traumatico da stress (PTSD) nei soldati, rappresenta una delle realtà più delicate nell’ambito della salute mentale contemporanea. Le esperienze traumatiche vissute durante i conflitti lasciano cicatrici profonde nella psiche, manifestandosi poi attraverso un ventaglio di sintomi debilitanti che possono persistere per anni dopo il ritorno alla vita civile. In questo contesto, l’avvento della VR si è imposto come metodo terapeutico innovativo, soprattutto offrendo un approccio unico al trattamento di questa condizione.


Il PTSD e la nuova metodologia psicologica


L’impatto del PTSD sulla vita di chi ha combattuto è pervasivo e multiforme. I giovani soldati si trovano spesso intrappolati in un ciclo di flashback vividi e ricordi intrusivi che riportano alla superficie le esperienze traumatiche vissute sul campo di battaglia. Questi episodi possono essere scatenati da stimoli apparentemente innocui – un rumore improvviso, un odore particolare, una determinata configurazione di luci – trasformando la quotidianità in un campo minato di potenziali trigger. Le notti, in particolare, diventano un territorio ostile, popolato da incubi ricorrenti che impediscono un riposo ristoratore, mentre le giornate sono caratterizzate da uno stato di ipervigilanza costante che esaurisce le energie fisiche e mentali.


L’introduzione della Virtual Reality Exposure Therapy (VRET) nel trattamento del PTSD ha rappresentato una svolta significativa. Questa metodologia che fa dell’innovazione il suo vessillo, permette di creare ambienti virtuali controllati dove i soldati possono confrontarsi gradualmente con le situazioni che evocano il trauma vissuto, sempre naturalmente sotto la guida attenta di terapeuti specializzati. Il vantaggio fondamentale di questo approccio risiede nella possibilità di modulare con precisione l’intensità dell’esposizione, creando un percorso terapeutico personalizzato che rispetta i tempi e le necessità di ogni paziente.


Step e programmi


La terapia basata sulla realtà virtuale si sviluppa attraverso un processo metodico e strutturato. Inizia con una fase di valutazione approfondita, durante la quale il terapeuta lavora con il veterano per identificare le specifiche situazioni traumatiche e i trigger associati. Questa comprensione dettagliata permette di programmare gli ambienti virtuali in modo da poter ricreare scenari significativi per il percorso di guarigione del paziente. Gli scenari possono variare da ricostruzioni di ambientazioni urbane simili alle zone di conflitto a situazioni specifiche legate al trauma individuale, sempre mantenendo un equilibrio tra realismo e controllo terapeutico.


Particolarmente rilevante è l’applicazione della VRET nei conflitti contemporanei. I soldati delle guerre recenti in (Iraq, Afghanistan) e dei conflitti attualmente in corso, come quello in Ucraina, possono beneficiare di interventi tempestivi, senza dover attendere anni prima di ricevere aiuto. La familiarità dei soldati moderni con la tecnologia digitale rende questo approccio particolarmente accessibile e di conseguenza efficace. Gli ambienti virtuali vengono costantemente aggiornati per riflettere accuratamente gli scenari dei conflitti attuali. Questi includono elementi caratteristici come gli ambienti urbani moderni, situazioni con dispositivi esplosivi improvvisati (IED) e tecnologie militari contemporanee.


Un aspetto innovativo è la possibilità di utilizzare la VRET anche nelle zone di conflitto o nelle basi militari, fornendo supporto immediato ai soldati che mostrano i primi segni di PTSD. Questo approccio preventivo può risultare cruciale nel ridurre l’incidenza di casi cronici.  I risultati clinici dell’utilizzo della VRET sono molto incoraggianti, sia per i veterani di guerre passate che per i soldati appena rientrati dal fronte. Numerosi studi hanno documentato miglioramenti significativi nei sintomi del PTSD, con una riduzione delle manifestazioni più debilitanti e un incremento della capacità dei soldati stessi di gestire le situazioni stressanti. I pazienti riportano un miglioramento della qualità del sonno, una diminuzione dell’ansia sociale e una maggiore facilità nel reinserimento nella vita civile. Particolarmente significativo è il fatto che questi benefici tendono a mantenersi nel tempo, suggerendo un effetto terapeutico duraturo.


Tecnologia e salute


E’ bene notare che l’approccio terapeutico viene sempre modulato in base alla temporalità del trauma.Per i soldati impegnati in guerre più recenti, il focus è sulla gestione immediata dei sintomi e sulla prevenzione della cronicizzazione del disturbo, mentre per i veterani di conflitti passati, il trattamento si concentra maggiormente sulla gestione di schemi comportamentali e di pensiero ormai radicati. In entrambi i casi, la VRET offre il vantaggio di un ambiente controllato con la possibilità di modulare l’intensità dell’esposizione, fornendo dati oggettivi sul progresso del trattamento.
Va detto però che non sempre le cose rispecchiano gli intenti, e la procedura di supporto psicologico ha delle lacune. Alcuni pazienti hanno sperimentato effetti collaterali come la motion sickness, che richiede un’attenta gestione da parte del team terapeutico. È fondamentale sottolineare che la VRET non sostituisce completamente gli approcci terapeutici tradizionali ma, come ogni tecnologia, si integra con questi in un programma di trattamento olistico.


Certo è che il futuro di questa metodologia appare molto promettente, con sviluppi tecnologici che potrebbero ampliarne ulteriormente le potenzialità. L’integrazione poi dell’intelligenza artificiale, il miglioramento della qualità grafica e l’implementazione di feedback aptici sono solo alcune delle direzioni verso cui la ricerca si sta muovendo. E la linea sembra inquadrare una prospettiva netta di personalizzazione delle cure e del supporto dato. 


Clinica ed approcci futuri


La ricerca continua in questo campo è molto importante per poter validare ulteriormente l’efficacia della VRET e svilupparne i protocolli di trattamento. Gli studi longitudinali in corso stanno fornendo preziose informazioni sulla durata degli effetti terapeutici e sulle modalità ottimali di implementazione del trattamento. Questa base di evidenze scientifiche è cruciale per l’integrazione sempre più diffusa della VR nel trattamento del PTSD.
 

Indice

Quando durante una call sentite dire, da uno degli sviluppatori dell’azienda di turno, che “lui” (a differenza di altri) opera con la RAG (che sta per Retrieval-Augmented Generation) è bene che sappiate anche di cosa si stia parlando. La RAG è un approccio (che parte proprio dalla volontà di ottenere risultati qualitativamente migliori) che amplia le capacità dei modelli linguistici di grandi dimensioni (LLM) attraverso l’aggiunta un componente di recupero delle informazioni stesse. Vuol dire che invece di basarsi solo sui dati di addestramento originali, il modello linguistico può recuperare informazioni pertinenti da fonti esterne autorevoli prima di generare un determinato output.

Aspetti convenienti della RAG

E’ più che chiaro quindi che, questa tipologia di implementazione porta ad un risultato più alto e ampio, dando la possibilità di ottenere informazioni molto più aggiornate e stando lontani dai soliti contenuti. Questo perché ciò che viene distribuito come informazione se incontra un parare molto più positivo degli utenti è chiaro che si spalmi su di una reputazione molto più positiva delle risposte ottenute. Perché? Perché sono le fonti di valore e dimostrabili che parlano. E tutto questo non può che portare ad una più profonda fiducia da parte degli utenti stessi. E aggiungerei, un controllo superiore da parte degli sviluppatori sulle fonti di informazione usate. Sì, tutto questo è molto interessante, ma come avviene nello specifico?

Processo creativo tramite RAG

Abbiamo un LLM e dobbiamo farlo agire nel miglior modo possibile. Cosa ci serve allora? Un database. Dobbiamo creare un database che rimandi a conoscenze esterne approfondite (in formati leggibili). In questo metteremo tutte quelle informazioni che riteniamo più rilevanti in base alla conoscenza che abbiamo della query dell’utente. Da qui procederemo con una incorporazione di quelle che avremo recuperato dal prompt dell’LLM stesso per avere così la possibilità di generare una risposta di qualità superiore.

E se volessimo fare a meno della RAG? In che senso? E perché poi palesare tanto interesse per questa dinamica operativa se poi si tende a scardinarla?  Allora, facciamo il punto. Io vorrei guardarla come se si trattasse di una sorta di esperimento. Abbiamo un punto A conclamato che ci apre una data strada per arrivare a B, ma possiamo tranquillamente optare per una sopraelevata C che ci porti ad un identico obiettivo, ma con minor sforzo e maggiori risultati. Per fare tutto questo, ho provato ad andare di “supposizione immaginativa” (che nome strano vero? Però esiste…).

Con o senza RAG. Quello che la memoria ci dice.

Partirei quindi, da una lettera scritta (siamo sempre in fase di ipotesi) ad un collega ricercatore. 

Egregio collega,

mi rivolgo a Lei con entusiasmo per presentare una nuova, innovativa ipotesi che potrebbe rivoluzionare il modo in cui pensiamo ai modelli linguistici di grandi dimensioni (LLM) e ai chatbot conversazionali. Dopo approfondite ricerche, ho scoperto che è possibile superare la necessità di una Retrieval-Augmented Generation (RAG) integrando una forma di memoria a lungo termine direttamente nell’architettura dell’LLM. Come ben sa, gli LLM sono addestrati su vastissimi volumi di dati e raggiungono risultati impressionanti nella generazione di testo. Sappiamo però anche che la loro conoscenza è limitata al dataset di addestramento, spesso con una data di cut-off ben definita. Questo significa che gli stessi modelli possono produrre informazioni imprecise quando interrogati su specifici argomenti. La mia proposta è di incorporare una componente di memoria a lungo termine nell’LLM, che gli consenta di accedere a conoscenze più recenti e pertinenti. Anziché dipendere da un sistema di recupero esterno, l’LLM sarebbe in grado così di integrare autonomamente nuove informazioni nel suo modello interno. 

A questo punto verrebbe spiegato al collega nello specifico un iter di linee evolutive che più o meno potrebbero essere riassunte in questo modo. Ossia che l’eliminazione del processo di recupero esterno, di conseguenza, semplificherebbe l’architettura complessiva, abbassando di molto i costi computazionali e i tempi di risposta. Sappiamo che un LLM può adattarsi rapidamente a cambiamenti e aggiornamenti delle informazioni, senza avere la necessità di aggiornare le fonti esterne. E poiché l’intero processo di generazione della risposta avverrebbe all’interno del modello, sarebbe molto più semplice comprendere e spiegare il ragionamento alla base delle risposte.

Andiamo ad obiettivo

Per raggiungere questo risultato, stiamo quindi valutando diverse strategie di progettazione dell’architettura dell’LLM, tra cui l’incorporazione di moduli di memoria a lungo termine, e l’uso di meccanismi di attenzione avanzati legati a tecniche di apprendimento continuo. Penso che questa innovativa architettura potrebbe superare le attuali limitazioni degli LLM. E per concludere la missiva tra colleghi ricercatori aggiungerei:

Ritengo che questa scoperta possa aprire la strada a una nuova era di chatbot e sistemi di intelligenza artificiale generativa ancora più potenti e quasi infallibilii.

Va bene, fin qui tutto chiaro, ma in che modo sarebbe possibile creare dei moduli di memoria a lungo termine?

La prima idea che mi viene in mente è quella di integrare nell’architettura dell’LLM diversi moduli specializzati nella memorizzazione e nel recupero di informazioni a lungo termine. Questi moduli dovrebbero anche possedere alcune caratteristiche chiave. La prima fra queste sarebbe sicuramente la capacità di memorizzare e mantenere tantissime informazioni aggiornate nel tempo, e senza alcun limite di dimensione. I suoi meccanismi sarebbero ad apprendimento continuo, il che vuol dire non avere la necessità di ricominciare da principio l’addestramento. Per permettere poi al modello di accedere rapidamente alle informazioni memorizzate, i moduli di memoria dovrebbero supportare sofisticate funzionalità di indicizzazione, basate su meccanismi di rappresentazione vettoriale.

E da qui la lista (reti neurali esterne di memoria a lungo termine, database vettoriali integrati per l’indicizzazione delle informazioni ed infine, algoritmi di apprendimento continuo per l’aggiornamento dei contenuti). Questa architettura ibrida consentirebbe all’LLM di attingere a una base di conoscenze sempre aggiornata pertinente, senza dover dipendere da un sistema esterno di recupero delle informazioni. Ciò si tradurrebbe nel superamento dei limiti della tradizionale Retrieval-Augmented Generation.

Riassumiamo concludendo

Quando l’utente pone una domanda, l’LLM genera un prompt iniziale basato sulla query. Questo prompt viene poi arricchito con informazioni pertinenti recuperate dai moduli di memoria, usando la strada dei meccanismi di attenzione avanzati. Nel mentre di queste dinamiche di implementazione e azione, l’LLM invia una richiesta ai moduli di memoria per ottenere dati specifici da integrare nella risposta finale. E per concludere in maniera semplice, il processo di generazione della risposta finale va a tener conto sia delle conoscenze di base dell’LLM che delle informazioni recuperate dai moduli di memoria. Da quello che posso immaginare questa tipologia di architettura credo risulti molto più snella e performante rispetto a un approccio con recupero esterno. Certo, resta ancora molto lavoro da fare prima di poter realizzare pienamente questa visione, ma i potenziali risultati (super ottimali) la rendono una direzione di ricerca credo davvero promettente.

Indice

Durante un nostro viaggio a Londra siamo venuti a conoscenza di una realtà startup UK ma di proprietà e fondazione tutta Italiana che opera nei campi social, servizi finanziari online connessi alle criptovalute, Metaverso e intelligenza artificiale, ma andiamo per ordine. Mattia Gherardi, sales manager di DT SOCIALIZE, ci ha fatto una bella panoramica di tutta la storia che riguarda questa società così innovativa, partendo dalla fondazione per poi arrivare ai progetti attuali e anticipandoci alcune loro ambizioni future. Gli abbiamo chiesto nello specifico anche cosa pensasse dello sviluppo futuro del Metaverso e dell’intelligenza artificiale, il tutto ha generato un dialogo molto interessante che riportiamo per voi in questo articolo.

La società

DT SOCIALIZE viene fondata in Italia nel 2017 da un gruppo di giovani “pionieri dell’innovazione”. Per questioni di burocrazia e opportunità di sviluppo decide nel 2020 di trasferirsi in UK e fondare lì una holding. Nel 2023 diventa una PLC company. Nel diritto societario inglese si tratta di una società a responsabilità limitata le cui azioni possono essere liberamente vendute e scambiate al pubblico (anche se una PLC può anche essere posseduta privatamente, spesso da un’altra plc), con un capitale minimo di 50000 £. Oggi l’ambizione principale è quella di diventare una società quotata in borsa all’indice americano Nasdaq. Ha inoltre avviato numerose collaborazioni con player istituzionali e recentemente con due importanti banche d’investimento internazionali. L’obiettivo dichiarato fin dal 2017 è stato sempre quello di elaborare sistemi e applicazioni per tutelare la privacy degli utenti in rete.

Il progetto social Uup Anonymous

Il primo importante progetto è stato quello di voler creare una app (ancora oggi operativa) che fosse scaricabile dagli store online e che permettesse la totale tutela dei fruitori verso l’esterno (un po’ come voleva probabilmente essere Telegram). Un obiettivo innovativo sia per la gestione tramite tecnologia blockchain, sia per aver utilizzato una VPN di tipo nova con dei big data creati affinché non uscissero verso l’esterno.

Il progetto della banca online Dts Money

Nel 2022, sempre con la vision primaria riguardante la sicurezza degli utenti, viene creata una Ibank per la gestione degli affari e delle transazioni online. Il progetto FINTEC lega la finanza con la tecnologia e oltre alle classiche operazioni bancarie online funge anche da Exchange per l’acquisto e la vendita di criptovalute. Sono inoltre previsti dei piani Volt con compenso DTS money e dei piani di Staking SDC con le valute stablecoin (con conversione in dollari). 

Nel 2021 c’era già stata una nuova svolta: la società aveva dato vita al suo primo Metaverso denominato UMetaworld in collaborazione inizialmente con la società OVR, poi con ROOMFUL con cui attualmente ancora collabora. Nell’ambiente virtuale sono presenti sale meeting e ambienti per incontri. Ad oggi è una realtà che conta circa un milione di utenti ed è utilizzabile sia da PC, che da app su cellulare oppure tramite visore VR. L’innovazione principale è che si tratta del primo mondo a livello mondiale con quote basate su security token che corrispondono di fatto alle quote della società di cui gli investitori esterni possono diventarne in parte proprietari. E’ inoltre possibile al suo interno pagare servizi tramite un token specifico chiamato “UTAKE token”.

L’intelligenza artificiale MAIA

L’ultimo progetto in ordine di tempo che ovviamente si interfaccia con gli altri è la creazione di una propria intelligenza artificiale chiamata MAIA. Un’idea dal mio punto di vista realmente grandiosa, è stata quella per cui con il codice sorgente di circa 10.000 righe sono stati creati degli NFT unici. Una realtà quindi, in fase di grande sviluppo e che probabilmente fra qualche anno si opporrà ai principali colossi I-tech mondiali. Dalle ottime premesse potremmo ipotizzare che il futuro del Metaverso globale potrebbe anche essere quello creato inizialmente da loro.

A Mattia ho fatto diverse domande e questa è la sua vision.

Ne abbiamo parlato spesso nei nostri articoli su Metacomunications e lo consideriamo uno dei capisaldi del futuro del Metaverso; cosa ne pensi dello sviluppo dei device e cosa ha fatto la tua società in merito ad essi?

Ci siamo strutturati sia con la tecnologia esistente quindi con la possibilità di accedere al nostro Metaverso, ossia comodamente tramite cellulare (oggi la modalità più usata) che tramite PC o visore VR. Credo che il futuro dello sviluppo dei device ancora non lo conosciamo, probabilmente fra qualche anno nasceranno degli ibridi fra gli strumenti utilizzati oggi a largo consumo come il telefono cellulare e i visori VR; per poi andare via via verso soluzioni più performanti meno invasive e meno costose.

Qual è oggi la mission principale della Vostra società?

Abbiamo oggi due obiettivi. Vogliamo portare avanti su più livelli e più settori la mission iniziale della privacy e della tutela degli utenti, ma non vogliamo che le applicazioni web siano dipendenti come oggi a livello economico da banner pubblicitari e corner pubblicitari. E poi vorremmo ambire a diventare una realtà conosciuta a livello globale per i suoi servizi WEB 3 consapevoli che il sistema stia rapidamente cambiando verso una tipologia diversa da quella prevalentemente utilizzata oggi che porta gli utenti a creare contenuti gratuitamente per le piattaforme

Mi ha fatto molto piacere conoscerti e sentire il grande entusiasmo che dedichi a questo progetto aziendale, ma a questo punto voglio anche chiederti quali sono i tuoi obiettivi di sviluppo personale?

Come hai visto sono felicissimo di far parte di questa bellissima realtà imprenditoriale ultratecnologica e voglio continuare ad impegnarmi al massimo nel mio ruolo di sales manager per far crescere ulteriormente l’impresa nello sviluppo della rete commerciale soprattutto in Italia dove io oggi vivo.

Ora, una domanda che spesso proponiamo a chi intervistiamo, soprattutto quando pensiamo che si tratti di visionari futuristici. Quale futuro vedi per l’IA e il Metaverso?

Il Metaverso sarà sempre più utilizzato in futuro anche per i servizi essenziali ma non lo vedo comunque come un qualcosa da adozione totale; mi spiego meglio. Ci saranno sempre due dimensioni, quella reale e quella virtuale, l’importante (come già succede con i videogame) è non abusare della seconda. Per quanto riguarda l’IA credo che sarà di grande aiuto per il lavoro e per la nascita e lo sviluppo di nuove professioni. Certo è probabile che alcuni lavori semplici che oggi non richiedono un particolare impegno intellettuale probabilmente saranno sostituti, però la capacità forte dell’essere umano sta anche nell’adattarsi a nuove situazioni e sfruttarle a proprio vantaggio.

Concludendo

L’intervista ha lasciato spazio a considerazioni e ragionamenti molto interessanti (in gran parte condivisi). Sono stato felice di aver conosciuto questa realtà molto innovativa e in forte sviluppo che bene si interseca con gli obiettivi comunicativi del nostro giornale che vuole tenere sempre informati i lettori su tutte quelle che sono le novità a livello nazionale e internazionale riguardanti l’innovazione tecnologica. Resteremo sicuramente in contatto con loro perché vogliamo seguire da vicino l’evolversi di progetti così pieni di strategie positive e per essere in prima linea quando usciranno nuove progettualità.

Indice

La biostampa tridimensionale, o 3D bioprinting, è una tecnologia davvero all’avanguardia che sta trovando fortunatamente sempre più applicazione nel settore della medicina rigenerativa. Questa innovativa tecnica consente la creazione di tessuti e organi artificiali personalizzati, dando la possibilità ai medici di far convergere l’attenzione su strade tutte nuove per il trattamento di gravi patologie e il miglioramento della qualità di vita dei pazienti.

Alla base del processo di biostampa 3D vi sono speciali biomateriali, come idrogeli, cellule vive e fattori di crescita, che vengono stampati layer per layer, replicando fedelmente la struttura e la composizione dei tessuti naturali. Questa capacità di stampare tridimensionalemente strutture biologiche complesse è il frutto di decenni di ricerca e sviluppo nel campo della scienza dei biomateriali, dell’ingegneria tissutale e della medicina rigenerativa.

Applicazioni della biostampa 3D in ambito medico

L’impatto potenziale del 3D bioprinting sulla medicina è davvero straordinario. Uno dei principali campi di applicazione riguarda la ricostruzione di organi e tessuti danneggiati. Già oggi è possibile fare uso di questa tecnologia per stampare pelle, cartilagine, ossa e persino organi come il cuore, il fegato o i reni, impiegando le stesse cellule staminali del paziente. Ciò consente di sviluppare soluzioni di trapianto personalizzate, evitando i problemi di rigetto tipici dei trapianti tradizionali. Poco tempo fa si è avuta notizia dell’approvazione di questa applicazione da parte della FDA, in relazione al primo impianto di menisco stampato in 3D per uso clinico. Questo è a tutti gli effetti un vero e proprio traguardo e che rappresenta un avanzamento di grande portata nell’uso della biostampa 3D, dando così la possibilità di avere ulteriori approvazioni di impiantinei prossimi anni.

Oltre alla medicina ricostruttiva, il 3D bioprinting trova applicazione anche nella medicina rigenerativa, permettendo la creazione di modelli 3D per la sperimentazione farmaceutica e la valutazione della tossicità dei farmaci. Questa capacità di riprodurre fedelmente le caratteristiche fisiologiche dei tessuti umani porta ad osservare un definitivo cambio di rotta all’interno dei canali tradizionali basati su colture cellulari bidimensionali o sui tanto discussi esperimenti sugli animali.

Il futuro promettente della biostampa 3D in medicina

Nonostante i notevoli progressi compiuti, il 3D bioprinting deve ancora passare la selezione e la classificazione in fatto di norme prima di poter diventare una pratica clinica di routine. Tra queste, la necessità di migliorare la risoluzione e la precisione delle stampanti stesse, di sviluppare biomateriali più avanzati e di garantire la sicurezza a lungo termine dei tessuti e degli organi bioingegnerizzati. E’ naturale che siano necessari maggiori studi clinici per dimostrarne l’efficacia in ambito medico, ma questo rispetta gli standard di attesa e validazione di qualunque contesto medico-chirurgico.

La realtà che adesso sembra essersi già palesata è che il futuro del 3D bioprinting appare estremamente promettente. Secondo un recente rapporto di mercato, il settore dovrebbe raggiungere i 5,8 miliardi di dollari entro il 2027, con una crescita annua del 19,1%. Questo boom è guidato dalla crescente adozione della tecnologia nella ricerca farmaceutica e biomedica, e in particolar modo dall’aumento degli investimenti pubblici e privati nel settore.

Costi e valutazioni future

La recente approvazione del primo impianto di menisco stampato, dimostra che questa tecnologia sta in modalità rapida, avanzando verso l’applicazione su larga scala. Man mano che i costi di questa metodica di biostampa diminuiranno e la tecnologia si perfezionerà, sarà sicuramente possibile che questa rivoluzionaria tecnica diventi un pilastro fondamentale della medicina rigenerativa del prossimo futuro. E’ vero che i biomateriali specializzati, come gli idrogeli e le cellule staminali, che vengono utilizzati per stampare i tessuti e gli organi, hanno ancora prezzi molto alti rispetto ai materiali tradizionalmente impiegati in medicina, ma questa situazione sta lentamente cominciando a cambiare, grazie agli investimenti crescenti nel settore e all’aumento della domanda di soluzioni di biostampa 3D. 

Conclusioni

Il 3D bioprinting è una realtà di grande innovazione per il campo della medicina e della chirurgia. Dare la possibilità di poter utilizzare tessuti ed organi rivitalizzati e creati attraverso un processo che è totalmente tecnologico equivale a rivoluzionare completamente il vecchio campo d’azione. Le prospettive future di questa tecnologia sono davvero stimolanti e promettono profonde trasformazioni nel modo in cui affrontiamo e trattiamo la maggior parte delle malattie.

Indice

Gli NFT hanno fatto il loro ingresso nel mondo digitale come una soluzione rivoluzionaria al problema della proprietà digitale, ma non solo. La promessa era quella di trasformare semplici file, facilmente replicabili, in asset unici e verificabili attraverso la blockchain, ma non solo. Questa tecnologia sembrava offrire una risposta definitiva alla questione dell’autenticità nell’era digitale, aprendo nuove strade succose ad artisti, collezionisti e investitori. Molti investitori.

L’era d’oro degli NFT

Il periodo di massimo splendore degli NFT ha visto un coinvolgimento senza precedenti da parte dei giganti della tecnologia. Meta, attraverso Instagram, ha implementato funzionalità dedicate agli NFT, mentre X ha introdotto la possibilità di utilizzare NFT come immagini del profilo. Questo interesse da parte delle grandi piattaforme social ha contribuito a legittimare il fenomeno agli occhi del pubblico globale, attirando così l’attenzione di sguardi istituzionali e venture capital. L’innovazione però non si è limitata al software. Nel campo hardware, progetti ambiziosi come il Solana Saga hanno tentato di creare dispositivi dedicati specificamente al mondo crypto e a quello dei Non Fungible Token. Questi sviluppi testimoniavano la fiducia del mercato nel potenziale a lungo termine di questa tecnologia. O almeno queste erano le speranze. E un pò tutti siamo rimasti affascinati da questo arcobaleno di espressioni artistiche che sembrava non avere limiti.

E sono state soprattutto le vendite record che hanno caratterizzato questo periodo davvero aureo. La tanto discussa e apprezzata opera di Beeple (chi può dimenticarla?) ha stabilito un record storico con una vendita di 69 milioni di dollari, mentre collezioni come CryptoPunks e Bored Ape Yacht Club hanno regolarmente registrato transazioni superiori al milione di dollari. Questi prezzi stratosferici hanno fatto in modo da alimentare l’idea che gli NFT rappresentassero una nuova classe di asset in grado di generare ricchezza in modo rapido e consistente. E un pò tutti ci abbiamo creduto.

Il devastante bilancio del 2024

Il quadro che emerge dai dati di questo ultimo 2024 rivela però improvvisamente (forse) una realtà drammaticamente diversa da quelle che erano state le aspettative iniziali. Il tasso di fallimento delle collezioni dei token non fungibili ha raggiunto livelli impressionanti, con il 96% dei progetti che hanno perso completamente valore. Il volume di trading è crollato dell’87% rispetto ai picchi storici, mentre il prezzo medio di vendita ha subito una contrazione del 93%. Questi numeri raccontano decisamente la storia di un mercato in profonda crisi. Molto profonda.

L’impatto sugli investitori è stato a dir poco devastante. Molti hanno visto i loro investimenti iniziali completamente azzerati, perdendo non solo il capitale investito ma anche le consistenti somme spese in commissioni e costi di gas. La situazione si è ulteriormente aggravata quando ci si è resi conto che era quasi ormai nulla la possibilità di recuperare anche solo una parte dell’investimento, data la totale assenza di liquidità nel mercato.

Le cause del fallimento

L’hype incontrollato è stato l’assoluto protagonista in questo declino. Il marketing aggressivo, combinato con la promozione da parte di influencer e le promesse di guadagni rapidi, hanno creato un ambiente speculativo diventato molto velocemente insostenibile. La paura di perdere opportunità ha spinto molti investitori a prendere decisioni irrazionali, alimentando così una bolla destinata a scoppiare.

I problemi strutturali del mercato hanno contribuito significativamente al crollo. I costi di transazione elevati hanno rappresentato una barriera significativa all’ingresso per nuovi utenti, mentre la congestione delle reti blockchain ha reso l’esperienza frustrante per molti. Le questioni di sicurezza, con frequenti hack e truffe, hanno minato poi, in maniera quasi definitiva, la fiducia degli investitori. La mancanza di un quadro normativo chiaro (così come si è più volte detto) è stato indizio di un’ulteriore incertezza. Le questioni legate al copyright, alla tassazione e alla proprietà intellettuale sono rimaste comunque largamente irrisolte, così come oggi possiamo constatare. l problema fondamentale è stato il distacco tra il valore percepito e il valore reale. Durante il periodo di massima espansione, i prezzi erano sostenuti principalmente dalla speculazione e dalla convinzione che sarebbe sempre stato possibile rivendere a un prezzo più alto.

Purtroppo dobbiamo iniziare a parlare di parziale (ma con una fetta di percentuale abbastanza alta) stato di fallimento degli NFT. Fallimento che ha avuto ripercussioni significative sull’intero ecosistema delle criptovalute. La perdita di fiducia di chi aveva profondamente creduto e di conseguenza investito in questa realtà, si è estesa oltre il settore, influenzando negativamente la percezione generale delle applicazioni blockchain. E da qui un effetto domino che è andato a colpire anche token e progetti correlati.

NFT, lezioni apprese e analisi di mercato

L’esperienza degli NFT ha insegnato l’importanza fondamentale della sostenibilità nei modelli di business digitali. È diventato evidente che il successo a lungo termine richiede la generazione di valore reale, non solo la creazione di asset speculativi. La trasparenza nelle operazioni e l’accountability dei team di sviluppo sono emersi come elementi cruciali per la costruzione di fiducia nel mercato. Quello che riteniamo un punto importante per il futuro degli NFT è sicuramente quello legato al settore dell’arte. In che modo? La tecnologia potrebbe evolversi (così come sta accadendo molto velocemente) per gestire efficacemente i diritti d’autore digitali e il tracciamento della provenienza delle opere. Tutto molto utile per gli utenti. Anche perché la blockchain e gli asset digitali continuano a offrire potenzialità molto serie ed interessanti.

Non dimentichiamo però che il mercato dei token non fungibili è stato molto ben alimentato da una forma particolarmente aggressiva di marketing basato sulla FOMO (Fear Of Missing Out). Influencer, celebrità e media hanno contribuito a creare un senso di urgenza e l’idea che gli NFT rappresentassero un’opportunità unica di arricchimento rapido. E siamo stati tutti spettatori degli investimenti di milioni di dollari fatti per acquistare una scimmia annoiata o un cripto gattino da mettere poi come profilo di X. Questa pressione ha portato molte persone a investire in modo irrazionale, senza una vera comprensione di ciò che stavano acquistando. Pratiche di autentica manipolazione? Wash trading ad oltranza? Sì! E quindi cosa è accaduto? Una falsa percezione di liquidità e valore, che si è sgretolata quando il mercato ha iniziato a raffreddarsi.

I problemi tecnici e la saturazione

Ci sono state anche delle reali barriere tecniche che hanno portato a costi elevati di gas per le transazioni sulla blockchain Ethereum, dove si svolgeva la maggior parte del trading. E quindi? Semplice. Si è assistito ad una erosione della profittabilità potenziale così da scoraggiare nuovi investitori ad entrare nel entrare nel mercato. Peccato, perché opere interessanti e creatori non da poco avevano iniziato ad alimentare una nuova forma d’arte, nella quale però ancora crediamo. Cerchiamo di dare le colpe giuste anche alle situazioni giuste. Prima di tutto l’assenza di un quadro normativo chiaro ha permesso il proliferare di truffe e progetti fraudolenti, così come l’assenza di standard di qualità.

In più, il crollo degli NFT è coinciso con un periodo di stretta monetaria e aumento dei tassi di interesse. E tutti si sono buttati su investimenti più tradizionali e sicuri. E allora? C’è una buona lezione da imparare? Si. Ed è quella più importante che ci spiega che nessuna innovazione tecnologica, per quanto promettente, possa realmente sostenere una crescita basata esclusivamente sulla speculazione. Il futuro degli NFT, se ci sarà (e noi siamo sicuri che questo avverrà) dovrà essere costruito su casi d’uso concreti e su un valore reale e dimostrabile, non più unicamente su promesse di guadagni facili e rapidi.

Indice

Vorrei fare una piccola introduzione e partire con Chatterbox Lab, un’azienda con sede a Cambridge (Regno Unito) che si occupa di sviluppo di sistemi di intelligenza artificiale e di soluzioni conversazionali, perché ritengo che la ricerca in campo Natural Language Processing, sia un’importante finestra sul futuro globale.  Chatterbox Lab è stata anche utilizzata per analizzare quali degli attuali modelli di apprendimento di grandi dimensioni (LLM – Large Language Model) siano eticamente più attendibili e lontani dai bias di ogni tipo. E la premessa è fatta.

Da Claude alla sicurezza etica degli LLM

Aprirei quindi volentieri una parentesi sulle straordinarie capacità di Claude (ossia ciò che è emerso dall’attenta analisi dei modelli identificati da parte della società sopracitata), pur non essendo questo il focus principale dell’articolo.  Quello che mi interessa mettere sul tavolo della discussione è invece quanto sia importante essere a conoscenza dell’eticità colloquiale di un LLM. Questo perché non solo dobbiamo imparare ad utilizzare l’AI, riconoscendone gli attuali limiti (che vanno velocemente scomparendo), ma dovremmo essere molto presto in grado di capire come orientare il nostro approccio, e qui parlerei volentieri di prompting, nelle fasi oggettive di addestramento e training del modello stesso. Complicato? Per niente. Anzi.

Questo perché il processo di valutazione deve partire dalla evidenziazione di molte dimensioni da trattare che riguardino la trasparenza e la tracciabilità della documentazione utilizzata. Se procediamo con una scrematura perfetta in grado di eliminare ogni sorta di bias nei dati, questo porterebbe di sicuro ad una formulazione degli output generati molto più attenta e “pulita”. Certo, così dicendo è come se stessimo ragionando a capo della serie (o del gruppo societario che ha in dotazione il modello), ma è una prassi che io consiglio sempre anche nel piccolo (per esperienza personale). 

Controllo interno e autoanalisi

Stressiamolo il nostro modello di apprendimento (potremmo chiamarlo anche semplicemente come punto di erogazione finale “chatbot conversazionale”), affinché le sue valutazioni percorrano la strada più giusta e opportuna. Questo porta ad un mantenimento qualitativamente alto di eticità (soprattutto) e coerenza. Non voglio adesso fare riferimento alla considerazione da dare anche all’impatto ambientale di questo training, ma esiste comunque una realtà sostenibile che guarda al giusto consumo energetico e ad un’impronta “più lieve” di carbonio (così tanto per dire qualcosa in più).

Un posto a parte al tavolo della discussione merita secondo me la sicurezza, ossia nella fattispecie, quel tema specifico della sicurezza che appartiene al modello stesso. In questa potremmo inserire tutte quelle che sono le resistenze che si riferiscono ai contenuti dannosi, e il danno che questi potrebbero fare in un determinato output. A questo punto, tornando sulla linea facoltativa di stressare il modello, ci converrà procedere di conseguenza in una fase di confronto e addestramento cercando di creare una sorta di controllo interno di sicurezza. Il problema è che a volte non è possibile tenere sotto controllo tutto. 

LLM contenuti e valori umani

Naturalmente non ci è dato sempre di sapere (come una ricetta segreta) quali siano le categorie qualificanti in grado di rendere un modello più vicino alla pertinenza e alla sicurezza di un altro. Ciò che più conta è la linea discorsiva di input che intendiamo strutturare. Un modello ben strutturato dovrebbe quindi essere in grado di analizzare sé stesso attraverso una sorta di autosupervisione. E in questo modo sarebbe in grado di prevenire e bloccare per tempo tutti quegli output negativi e non pertinenti che sarebbero solo oggetto di una eliminazione. Arriveremo quindi ben presto ad un modello di apprendimento automatico che si autocorregge stando attento ad ogni possibile salto fuori dalle linee di sicurezza e correttezza etica dei contenuti.

Anthropic, ad esempio, fa parte di quel nucleo di aziende che si impegnano nel creare un approccio di portafoglio dei dati che porta alla preparazione di differenti scenari in grado di ipotizzare sia versioni positive che negative di una data risoluzione finale. Tutto questo per cosa? Per una cosa molto importante a mio avviso, ossia quella di creare modelli che siano molto più incentrati sulla sicurezza e soprattutto vicini a quelli che sono i nostri valori, i valori umani.

Conclusioni

Comprendere come sia l’effettiva dinamica di apprendimento e di generazione di un modello, facendo riferimento non ad una programmazione per codici e procedure informatiche ma soprattutto per prompting e generazione successiva di output, diventa oggi allora una prerogativa fondamentale per poter essere partecipi nel processo di crescita e “approvvigionamento” etico dell’intelligenza artificiale globale. (Di seguito un podcast che trovo chiaro e interessante, soprattutto perché abbiamo fatto un accenno al prompting, o in questo caso specifico al “contesto”).

Indice

L’AI cresce sempre di più in quella che possiamo definire come una strutturazione generativa con conseguente comprensione della domanda. E’ una tecnologia che sta diventando sempre più centrale, e in particolare nella gestione della supply chain moderna. Le sue applicazioni spaziano dall’ottimizzazione dell’inventario alla previsione della domanda, dalla pianificazione dei trasporti fino all’automazione dei processi decisionali.

Supply chain e manutenzione predittiva

La diagnostica basata sull’AI rappresenta una chiara visione del nuovo impatto che si sta avendo nella gestione stessa della supply chain, e in particolar modo in uno degli ambiti in cui il suo impatto è più evidente ossia, quello della manutenzione predittiva. E questa modalità porta le aziende a gestire le loro attrezzature e infrastrutture, passando finalmente da un modello reattivo ad uno proattivo. È più che chiaro che al cuore di questa rivoluzione c’è il monitoraggio in tempo reale. Dobbiamo sempre di più fare riferimento ad una visione completamente diversa e nuova prendendo quindi in considerazione soluzioni che prima non potevamo immaginare.

Come una rete di sensori IoT disseminati in un’intera catena di approvvigionamento – magazzini, linee di produzione, veicoli di trasporto, fino ai centri di distribuzione. Sensori che operano come sentinelle instancabili che monitorano costantemente lo stato di salute delle attrezzature, raccogliendo costantemente dati…una miriade di dati, tra temperature, vibrazioni, pressioni, livelli di umidità, ad esempio. È come se ogni macchina avesse il suo personale team medico che ne controlla i segni vitali 24 ore su 24, sette giorni su sette.

Ma raccogliere i dati è solo il primo passo. È qui che entra in gioco l’analisi predittiva, il vero motore dell’intelligenza artificiale in questo contesto. Algoritmi sofisticati di machine learning allora prendono in carico questa enorme mole di dati e la trasformano in preziose intuizioni. E questi algoritmi non si limitano ad osservare lo stato attuale delle attrezzature, ma imparano dai modelli storici e dalle correlazioni nascoste nei dati per prevedere potenziali guasti futuri. Algoritmi come detective brillanti che esaminano indizi invisibili altrimenti all’occhio umano.

Intelligenza artificiale e capacità di previsione

La vera magia avviene però quando le varie previsioni nei vari campi, si traducono in azioni concrete. Con queste informazioni a disposizione, le aziende possono passare da un approccio reattivo (aggiustiamo quando si rompe) a uno proattivo (preveniamo prima che si rompa). Gli interventi proattivi diventano la norma. I team di manutenzione possono programmare interventi mirati esattamente quando sono necessari, né troppo presto (sprecando risorse), né troppo tardi (rischiando guasti).

Questo cambiamento di paradigma ha un impatto non da poco sull’efficienza operativa. I tempi di inattività, che sono il nemico numero uno di qualsiasi supply chain efficiente, vengono drasticamente ridotti. Le riparazioni possono essere pianificate durante i periodi di bassa attività, portando ad un numero minimo le interruzioni. Affrontare i problemi nella loro fase iniziale spesso significa riparazioni più semplici e meno costose.

Ma i benefici vanno oltre la semplice riduzione dei costi. La manutenzione predittiva basata sull’intelligenza artificiale aumenta la vita utile delle attrezzature, migliora la qualità dei prodotti (macchine ben mantenute producono meglio), e incrementa in maniera forte la rete di sicurezza sul lavoro. In più, permette una gestione più precisa dell’inventario dei pezzi di ricambio, riducendo il capitale immobilizzato.

Una nuova catena di approvvigionamento

Partiamo dal rilevamento di frodi. E’ chiaro che in un mondo così interconnesso e complesso, le frodi nella supply chain siano diventate ancora più sofisticate e soprattutto difficili da individuare. Ed è qui che l’intelligenza artificiale si rivela un alleato prezioso.

Utilizzare tecniche avanzate di machine learning e analisi dei dati per creare un profilo normale delle operazioni è allora una nuova modalità di approccio al sistema. Qualsiasi deviazione da questo profilo verrebbe quindi immediatamente segnalata per un’ulteriore indagine. Il notare un improvviso aumento delle spedizioni verso una destinazione insolita, variazioni inspiegabili nei prezzi, o strane discrepanze tra gli ordini e le consegne creerebbe un “punto di allarme” operativo immediato. Ma l’intelligenza artificiale non si limita a segnalare unicamente le anomalie. Impara continuamente da ogni nuova transazione, affinando la sua capacità di distinguere tra attività legittime e sospette. Continuamente, è questa la sua potenza. E questo apprendimento continuo è cruciale in un ambiente in cui i metodi di frode evolvono costantemente.

Passiamo ora al controllo qualità, un altro ambito in cui l’AI sta facendo passi da gigante. Tradizionalmente, il controllo qualità dei prodotti è sempre stato un processo manuale, soggetto a errori umani e limitazioni di tempo. L’introduzione di sistemi di visione artificiale basati sull’AI è la radice del cambiamento radicale di questo scenario. Quando parliamo di analisi ci riferiamo a migliaia di prodotti o di dati specifici. E questa incredibile tecnologia non si limita a cercare difetti predefiniti, ma grazie al deep learning, può imparare a riconoscere sempre nuovi tipi di imperfezioni, adattandosi rapidamente a prodotti e standard di qualità. E questo porta all’analisi di texture, colori, forme e dimensioni con una precisione millimetrica, garantendo una coerenza di qualità impossibile da ottenere invece con metodi tradizionali.

AI e iter della supply chain

Al cuore di questa rivoluzione nella visualizzazione dei dati troviamo infine i dashboard interattivi. Questi non sono semplici grafici statici o tabelle di numeri, ma sono interfacce dinamiche e interattive che offrono una rappresentazione visiva complessa, ma immediatamente comprensibile, dell’intera supply chain.

Una dashboard ben progettata può condensare ingenti flussi di dati in visualizzazioni intuitive che permettono ai manager di cogliere istantaneamente lo stato dell’intera operazione. Con un colpo d’occhio, si può vedere dove si trovano le merci, quali sono i colli di bottiglia attuali (per fare un esempio), come stanno performando i fornitori, quali sono i livelli di inventario e molto altro ancora. Ma la vera potenza risiede nella interattività. Gli utenti possono “zoomare” dai dati aggregati fino ai dettagli più minuti con pochi clic. Vogliono sapere perché c’è un ritardo in una particolare spedizione? Possono cliccare su quell’elemento della dashboard e scavare nei dati sottostanti, seguendo il percorso della spedizione, verificando le condizioni meteorologiche lungo il percorso o controllando lo storico delle performance del fornitore.

Allora non possiamo fare altro che dire che l’efficienza e l’ottimizzazione delle tempistiche, con un aumento della sicurezza sono il preludio ad una diversa, nuova e potente modalità di gestione dell’iter produttivo in ogni settore. E questo solo grazie all’utilizzo dell’intelligenza artificiale.

Indice

Introduzione

Dovremmo aggiungere prima di tutto al titolo di questo articolo, un sottotitolo specifico come “guida pratica per i ricercatori”. Questo perché è diventato ormai quasi di vitale importanza avvicinarsi alla formazione in campo tecnologico in ogni realtà professionale, ed in particolare all’interno di quella medico-scientifica. Quello che più importa è che l’intelligenza artificiale è diventata “già” uno strumento accessibile e comune nel campo della ricerca sul cancro. Per fortuna. Da risorsa specializzata, si è evoluta in uno strumento facilmente utilizzabile soprattutto dai ricercatori oncologici. Gli strumenti basati sull’AI possono aumentare in maniera molto significativa, la produttività della ricerca nei flussi di lavoro quotidiani e, cosa ancora più importante, possono estrarre informazioni nascoste dai dati esistenti, aprendo la strada a nuove scoperte scientifiche. E questo lo stiamo già osservando. Per ogni ricercatore nel campo del cancro, sviluppare una conoscenza di base di questi strumenti è diventato quindi, come da premessa, davvero essenziale.

Accessibilità dell’AI

I ricercatori con una formazione tradizionale in scienze biologiche possono utilizzare strumenti basati sull’AI attraverso software preconfezionati e pronti all’uso. Questi strumenti sono progettati per essere intuitivi e non richiedono una profonda conoscenza di programmazione e di scienza dei dati. D’altra parte, i ricercatori con una maggiore inclinazione computazionale hanno l’opportunità di sviluppare i propri pipeline software basati sull’AI. Questo approccio “dona” una maggiore flessibilità e la possibilità di personalizzare gli strumenti in base alle esigenze specifiche dei loro progetti di ricerca. Quali sono allora, nello specifico, le applicazioni legate ai modelli di apprendimento che possono essere valide e validare all’interno della linea di produzione di nuove soluzioni legate alla ricerca sul cancro?

Individuazione e definizione

Nel campo dell’analisi delle immagini, l’intelligenza artificiale ha dimostrato un potenziale straordinario. Gli algoritmi di apprendimento profondo possono analizzare tantissimi dati visivi (radiografie, tomografie computerizzate, risonanze magnetiche), identificando anomalie e pattern che potrebbero sfuggire all’occhio umano. In questo modo è possibile rendere molto più veloce il processo legato alla diagnosi finale, fondamentale quando si tratta dell’individuazione precoce di varie forme di cancro.

Questo nuovo modo di vedere tutto ciò che rientra nel campo delle informazioni relative ad ogni paziente, gioca davvero un ruolo cruciale anche nell’elaborazione del linguaggio naturale applicata alla stessa ricerca. La possibilità di analizzare vasti corpus di letteratura scientifica, cartelle cliniche e dati non strutturati in modo rapido equivale ad ottimizzare le tempistiche e a dare maggiore struttura al percorso di approfondimento. Gli algoritmi di intelligenza artificiale possono estrarre informazioni rilevanti da testi medici, identificando così quelle tendenze che caratterizzano nel profondo la ricerca e portando così allo sviluppo di nuove ipotesi basate sulle connessioni trovate nella letteratura esistente. Idem per la definizione e la scoperta di nuovi farmaci (analisi dei composti chimici) e la delineazione della loro interazione con specifici bersagli molecolari.

Formazione tecnica per ricercatori

Per i ricercatori che desiderano acquisire competenze più approfondite nell’uso dell’intelligenza artificiale per la ricerca sul cancro, esistono diverse opportunità di formazione tecnica. Dalle piattaforme online fino ai bootcamp. Sono infatti molte le università che offrono la possibilità di approfondire anche nello specifico tecnico quelle che sono le dinamiche essenziali di questa nuova tecnologia. L’importante è avere sempre la percezione di lavorare a progetti reali. I programmi di certificazione poi si stanno specializzando sempre di più per fornire una formazione davvero completa sull’uso dell’AI nella ricerca biomedica. Anche siti come Kaggle offrono competizioni di data science specifiche per la ricerca sul cancro.

Ciò di cui il nostro Paese, in particolare, avrebbe bisogno, è una reale formazione che porti le aziende in primis a specializzarsi in software AI per la ricerca biomedica. Acquisire competenze pratiche su strumenti specifici può fare davvero la differenza. Non ci stancheremo mai di dire che investire tempo nella formazione tecnica può permettere ai ricercatori di sfruttare appieno il potenziale dell’intelligenza artificiale, soprattutto nell’individuazione di nuove forme risolutive per il trattamento delle neoplasie. Questa visione innovative non può che aprire, anzi spalancare le porte a nuove possibilità per l’analisi dei dati, la formulazione di ipotesi e soprattutto lo sviluppo di terapie che arrivino al bersaglio molto più velocemente.

Conclusioni

Che si tratti di utilizzare strumenti preconfezionati o di sviluppare soluzioni personalizzate, l’intelligenza artificiale è destinata a diventare una componente essenziale nel toolkit di ogni ricercatore oncologico. Abbracciare queste tecnologie e sviluppare una literacy di base in questo campo può definire nuovi percorsi per la comprensione e il trattamento del cancro, portando in ultima analisi a miglioramenti significativi nella vita dei pazienti.