Salute

ChatGpt, l’intelligenza artificiale di OpenAi è “a rischio medio”

AdnKronos

ChatGpt, l’intelligenza artificiale di OpenAi è “a rischio medio”

Ven, 09/08/2024 - 08:38

Condividi su:

(Adnkronos) – OpenAI ha pubblicato la sua scheda di sistema di GPT-4o, un documento che illustra le misure di sicurezza e le valutazioni dei rischi effettuate dall'azienda prima del rilascio del suo ultimo modello di intelligenza artificiale. GPT-4o è stato lanciato pubblicamente nel maggio di quest'anno. Prima della sua uscita, OpenAI ha coinvolto un gruppo esterno di esperti di sicurezza, noti come red teamer, per individuare eventuali vulnerabilità nel modello, una pratica abbastanza comune nel settore. Gli esperti hanno esaminato rischi come la possibilità che GPT-4o potesse creare cloni non autorizzati della voce di qualcuno, contenuti erotici e violenti, o segmenti di audio protetto da copyright. Ora, i risultati di queste valutazioni sono stati resi pubblici. Secondo il quadro di valutazione di OpenAI, i ricercatori hanno classificato GPT-4o come a "rischio medio". Il livello complessivo di rischio è stato determinato dal più alto grado di rischio tra quattro categorie principali: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Tutte queste categorie sono state valutate a basso rischio, eccetto la persuasione, dove è stato riscontrato che alcuni campioni di testo prodotti da GPT-4o potevano influenzare le opinioni dei lettori più efficacemente dei testi scritti da esseri umani, anche se nel complesso i campioni del modello non erano più persuasivi. Ci sono state molte richieste affinché OpenAI sia più trasparente, non solo riguardo ai dati di addestramento del modello, ma anche sui test di sicurezza. In California, dove hanno sede OpenAI e molti altri laboratori di intelligenza artificiale, il senatore statale Scott Wiener sta cercando di far approvare una legge per regolare i modelli di linguaggio di grandi dimensioni, inclusi vincoli che renderebbero le aziende legalmente responsabili se la loro IA viene utilizzata in modi dannosi. Se la legge sarà approvata, i modelli IA di OpenAI dovranno conformarsi alle valutazioni del rischio imposte dallo stato prima di essere resi disponibili al pubblico.  —tecnologiawebinfo@adnkronos.com (Web Info)