TLDR
- I progressi nella scienza e nell’intelligenza artificiale rendono più semplice la creazione di virus pericolosi, sollevando problemi di biosicurezza.
- Un piccolo team ha recentemente creato un virus da zero, evidenziando l’accessibilità di questa tecnologia.
- Le istituzioni esistenti come l’Australia Group svolgono un ruolo fondamentale nel prevenire l’uso improprio dell’intelligenza artificiale e della biotecnologia per scopi dannosi.
Negli ultimi anni il mondo ha assistito a progressi nel campo della chimica, della biologia sintetica e dell’intelligenza artificiale (AI). Insieme, queste innovazioni hanno inaugurato una nuova era di possibilità scientifiche. Tuttavia, da un grande potere derivano grandi responsabilità, e una preoccupazione emergente è il potenziale uso improprio di questa affinità cognitiva. La sintesi dei virus, un tempo compito di esperti altamente specializzati, è diventata sempre più accessibile, sollevando preoccupazioni circa la comparsa di agenti patogeni mortali.
Una svolta notevole
Un importante punto di svolta nel campo si è verificato quando un piccolo gruppo di ricercatori ha iniziato a sintetizzare il virus del vaiolo, il virus orthopox. Sebbene questo virus sia meno patogeno del vaiolo, è diventato un simbolo di preoccupazione a causa della sua facilità a manifestarsi. Il team ha ottenuto frammenti di DNA da un’epidemia di vaiolo del 1976 in Mongolia e ha costruito i frammenti di DNA con l’aiuto di un’azienda produttrice di DNA.
Questo sforzo è stato un “Rubicon” nel campo della biosicurezza, poiché ha dimostrato che il virus del vaiolo osseo poteva essere creato da zero utilizzando materiali e informazioni disponibili in commercio per circa $ 100.000.
Il ruolo dell’intelligenza artificiale
Poiché la tecnologia continua ad evolversi, il ruolo dell’intelligenza artificiale in questo panorama non può essere ignorato. I modelli linguistici di grandi dimensioni (LLM), come quelli che sono diventati disponibili al pubblico dalla fine del 2022, hanno il potenziale per aiutare a costruire armi chimiche o biologiche. Mentre le discussioni sull’intelligenza artificiale si sono spesso concentrate sullo sviluppo di sistemi super-intelligenti, il contributo degli attuali titolari del master nell’abbattimento delle “barriere informative” nell’emergere di agenti patogeni mortali è una preoccupazione più urgente.
Se dotati della giusta conoscenza della biologia sintetica, questi modelli possono aiutare le persone con una formazione minima a superare le sfide associate alla produzione di agenti patogeni vitali con potenziale pandemico.
Accesso ai LLM
Un aspetto sorprendente di questa preoccupazione è l’accessibilità degli LLM. La creazione di agenti patogeni sintetici è diventata sempre più semplice e richiede solo un sintetizzatore genomico desktop, l’accesso a letteratura specifica e una certa formazione scientifica. I costi di un tale progetto sono diminuiti in modo significativo. Si stima che presto ciò potrebbe richiedere poco più di 20.000 dollari. Questa accessibilità solleva interrogativi su come l’uso della tecnologia IA sia regolato e monitorato in questo contesto.
Affronta i rischi
È importante notare che lo sviluppo di agenti patogeni sintetici non garantisce un’epidemia. Tuttavia, i rischi potenziali sono innegabili. Per affrontare questi rischi, gli esperti suggeriscono di rivolgersi alle istituzioni esistenti che hanno già svolto un ruolo cruciale nel controllo delle armi biologiche e chimiche.
Il ruolo del gruppo australiano
Una di queste organizzazioni è l’Australia Group (AG), fondata nel 1984 durante la guerra Iran-Iraq. Originariamente concentrato sul controllo dei precursori chimici delle armi non convenzionali, il gruppo si è evoluto per coordinare la regolamentazione dei componenti “biochimici”. Considerata la nuova era dell’intelligenza artificiale e i progressi nella biologia sintetica, il gruppo consultivo può fungere da piattaforma per la cooperazione internazionale per affrontare queste minacce emergenti. Sviluppando liste di controllo congiunte complete e coordinando gli sforzi per prevenire l’uso improprio della tecnologia, il Gruppo Australia può svolgere un ruolo fondamentale nell’affrontare le potenziali minacce poste dalla convergenza dell’intelligenza artificiale e della biotecnologia.
Conclusione
Mentre l’umanità affronta le sfide continue di una pandemia globale e di altre crisi, l’emergere di nuove minacce legate alle armi biologiche serve a ricordare la necessità di misure proattive. I rapidi progressi tecnologici, uniti all’accesso all’intelligenza artificiale e alla biologia sintetica, richiedono una risposta internazionale coordinata. Il Gruppo Australia è un faro di speranza, poiché fornisce una piattaforma per affrontare queste sfide e proteggere la sicurezza globale.
In assenza di misure proattive, i rischi di un uso improprio dell’intelligenza artificiale e della biotecnologia sono grandi e il mondo deve unirsi per prevenire le conseguenze potenzialmente catastrofiche che potrebbero derivare dalla creazione e dall’uso di agenti patogeni sintetici. È tempo di agire prima che il mondo si trovi ad affrontare una nuova e inaspettata minaccia alla stabilità e alla sicurezza globale.
Disclaimer: Le informazioni fornite non costituiscono consulenza aziendale. Cryptopolitan.com Non ci assumiamo alcuna responsabilità per eventuali investimenti effettuati sulla base delle informazioni fornite su questo sito. Noi Ne consiglio vivamente uno indipendente Vedi Lieve shock /o consulenza di un professionista qualificato prima di prendere una decisione di investimento.
“Studente amichevole. Giocatore certificato. Evangelista dei social media. Fanatico di Internet. Cade molto. Futuro idolo degli adolescenti.”
More Stories
Ecco come gli uccelli prevedono il tempo
Questi sono i cinque maggiori fattori di rischio
Con l’intelligenza artificiale: i ricercatori vogliono costruire cellule artificiali Vita e conoscenza