
Quattro domande a Luigi Naldini sullo studio dell’Istituto San Raffaele Telethon per la Terapia Genica che ha svelato limiti e rischi delle piattaforme più avanzate per la correzione del DNA
Si fa presto a dire CRISPR. Ne esistono ormai molte versioni, riconducibili a tre modelli di base. Forbici, matita e correttore di word. Le prime sono quelle che hanno vinto il Nobel e tagliano entrambi i filamenti del DNA nel punto in cui si vuole cambiare la sequenza. Gli altri due modelli, invece, sono in grado di intervenire senza recidere la doppia elica e per questo sono considerati potenzialmente più sicuri per cancellare le lettere sbagliate del genoma e cambiarne qualche pezzetto. Ma c’è una novità: un lavoro del gruppo di Luigi Naldini pubblicato su Nature Biotechnology evidenzia i limiti di questa rappresentazione semplicistica degli editori (ovvero degli strumenti per l’editing genetico) di vecchia e nuova generazione.
La scomoda verità può essere riassunta così, in modo figurato: anche le matite a volte tagliano e talvolta i correttori hanno il difetto di perdere inchiostro. Non dovrebbe accadere, perché la doppia lesione non è richiesta per far funzionare i due approcci più avanzati (detti base editing e prime editing, fuor di metafora). E il fatto che tutti i modelli di CRISPR siano programmabili con una molecola guida di RNA dovrebbe renderli estremamente precisi. Ma sarà capitato anche a voi di rovinare inavvertitamente un foglio mentre prendevate appunti, con uno strappo o una macchia. La perfezione non esiste sotto questo sole, e nemmeno dentro ai nuclei delle cellule.
Lo studio appena pubblicato ha confrontato le performance dei diversi approcci all’editing (in termini di reazioni cellulari e mutazioni indesiderate) in cellule ematopoietiche trapiantate nei topi ed è destinato a essere letto con attenzione da tutti coloro che stanno lavorando per portare le terapie CRISPR fuori dai laboratori e dentro agli ospedali. I nuovi dati, infatti, non complicano la vita soltanto ai divulgatori affezionati alle similitudini, ma anche agli specialisti della terapia genica, perennemente alla ricerca di strumenti sempre più affidabili e di stratagemmi per farli funzionare nel modo migliore possibile. Per capire meglio la portata di questi risultati, abbiamo chiesto al direttore dell’SR-Tiget Luigi Naldini di rispondere a quattro domande:
Nessun tipo di CRISPR è impeccabile, d’accordo. Ma è ancora possibile stilare una gerarchia di affidabilità dicendo, ad esempio, che base e prime editing (rispettivamente matita e correttore, nella nostra metafora) generano meno mutazioni indesiderate della Cas9 (le forbici)?
Si certo. Il doppio taglio del DNA è la causa principale delle alterazioni genetiche indesiderate che possono conseguire all’editing (delezioni anche molto ampie fino alla perdita del braccio di un cromosoma, traslocazioni cromosomiche, riarrangiamenti complessi). Quindi la riduzione della sua occorrenza, anche se non completa, ottenuta con base e prime editing ne migliora comunque la biosicurezza rispetto all’uso delle forbici CRISPR.
CRISPR-Cas9 è tuttora lo strumento CRISPR più usato, perché è stato inventato per primo ed è molto efficiente. Sappiamo che negli embrioni può causare preoccupanti macro-mutazioni indesiderate ma nelle cellule adulte funziona bene, tant’è vero che un trattamento per l’anemia falciforme sta per ricevere il via libera alla commercializzazione. L’affidabilità degli strumenti dipende anche dalle condizioni in cui operano?
Sappiamo che anche solo accorciando il tempo di esposizione delle cellule agli editori se ne può aumentare la precisione, riducendo gli effetti indesiderati e mantenendo una efficienza adeguata. Quindi raffinando la modalità di somministrazione dell’editore (ad esempio usando la proteina pre-assemblata con la sua guida anziché somministrare due RNA separati per l’editore e la guida) c’è spazio per migliorarne l’affidabilità. Poi certo può variare la risposta con il tipo cellulare e perfino le sue condizioni. Ad esempio, tagliare il DNA in una cellula che sta per dividersi è più pericoloso che farlo in una cellula quiescente. Noi poi abbiamo visto che sia l’efficienza del base editing sia gli eventi avversi conseguenti sono influenzati dalla prontezza con cui una cellula rileva un mis-appaiamento tra due basi –proprio quello che introduce il base editor – e interviene per risolverlo. Tutte queste condizioni, e verosimilmente altre ancora da scoprire, permetteranno di ottimizzare precisione e sicurezza dell’intervento genetico.
All’Istituto San Raffaele-Telethon avete scoperto i buchi indesiderati creati dai nuovi modelli di CRISPR, come state lavorando ora per indentificare le toppe?
Primo, ottimizzando le condizioni di somministrazione dell’editore in base al tipo cellulare trattato e verificando che gli eventi indesiderati che abbiamo documentato vengano alleviati. Poi, avendo individuato il “tallone di Achille” di queste stupefacenti macchine molecolari, possiamo guidarne l’evoluzione in vitro verso varianti più sicure.
Da una parte bisogna procedere con cautela, perché la fretta genera incidenti e gli incidenti possono costare cari, ai pazienti e anche al futuro dell’editing. Dall’altra sappiamo che il rischio zero non esiste e non si possono fissare standard di sicurezza irraggiungibili. Come si fa a trovare il punto di equilibrio?
La storia della medicina ci ha insegnato ad usare il rapporto rischio-beneficio nel disegno di ogni nuova sperimentazione, mirando a garantire quanto più possibile la sicurezza del paziente e gli eventuali benefici, ma anche la possibilità di acquisire conoscenze che illuminino il successivo percorso di sviluppo del farmaco. Quanto più conosciamo il meccanismo di azione ed i rischi associati ad un nuovo farmaco tanto meglio potremo valutarne la giustificata applicazione ad una certa malattia, per cui considereremo la gravità della patologia, l’urgenza del trattamento e la disponibilità di altri trattamenti efficaci o palliativi. Oggi per alcune gravi malattie genetiche come quelle del sangue abbiamo il lusso di poter scegliere tra diversi tipi di terapie avanzate, ad esempio rimpiazzare una versione funzionale del gene difettoso con un vettore virale o editarne direttamente la sequenza per ripristinarne la funzione o, ancora, risvegliare un gene vicario, ad esempio fetale, che possa compensare il difetto. Questa “scelta” comporta una grande responsabilità per il clinico ricercatore, che deve anche soppesare la maggiore conoscenza acquisita nel tempo con le terapie più consolidate rispetto al più ampio grado di “ignoto” associato a quelle più recenti ed innovative.