Per decenni le società umane sono state alle prese con il modo migliore per eliminare o ridurre diversi tipi di pregiudizi. Mentre il mondo entra nell’era dell’intelligenza artificiale (AI), la questione dei pregiudizi rimane senza tempo, ora portata sotto una nuova luce con le IA che mostrano pregiudizi nel loro funzionamento, spesso rispecchiando e amplificando i pregiudizi umani. Quando si tratta di modelli di intelligenza artificiale linguistica come ChatGPT, sviluppato da OpenAI, il concetto di “bias” si sviluppa in due dimensioni: i bias delle fonti di dati preesistenti e quelli che emergono dalle dinamiche di training del modello. Riconoscendo l’impatto cruciale della mitigazione dei pregiudizi, OpenAI si è impegnata ad affrontare questo problema per creare uno strumento più sicuro, più efficace ed eticamente valido.
Uno dei modi principali in cui ChatGPT affronta le preoccupazioni etiche associate ai pregiudizi è attraverso un processo in due fasi di preformazione e messa a punto. Il processo di pre-addestramento prevede che il modello impari da una grande quantità di testo Internet. Dato che i dati di addestramento sono un corpus di testi internet, rimangono anonimi e non contengono documenti o fonti specifiche. Tuttavia, questi dati, come qualsiasi altra forma di dati Internet, possono contenere vari pregiudizi, poiché riflettono la nostra società con tutte le sue virtù e vizi. Ciononostante, definisce la visione iniziale del modello del linguaggio e del mondo.
OpenAI passa alla fase successiva di messa a punto del modello su un set di dati più specifico, realizzato con l’aiuto di revisori umani che seguono rigide linee guida che impediscono di favorire qualsiasi gruppo politico o sociale. Le linee guida richiedono esplicitamente ai revisori di non favorire alcun gruppo politico e sono progettate per affrontare potenziali insidie e sfide legate a pregiudizi e temi controversi.
Inoltre, OpenAI mantiene un ciclo di feedback con i suoi revisori che prevede riunioni settimanali utilizzate per rispondere a domande, fornire chiarimenti e migliorare il modello in modo iterativo. Questo sistema fornisce una strada utile per far luce su eventuali pregiudizi che possono apparire inavvertitamente e aumenta il potenziale per correggerli. Questa relazione continua rafforza la capacità del modello di comprendere e aderire alla politica e all’integrità dei casi d’uso di OpenAI, riducendo i pregiudizi e garantendo l’equità.
ChatGPT si occupa anche dei pregiudizi attraverso il suo comportamento personalizzabile. OpenAI mira a consentire all’intelligenza artificiale di adattarsi ai valori dei singoli utenti entro ampi limiti. Tuttavia, per evitare un uso improprio della tecnologia e il pericolo che l’intelligenza artificiale amplifichi insensatamente le convinzioni esistenti delle persone, ci sono e dovrebbero sempre esserci dei limiti al comportamento del sistema. Ciò significa progettare deliberatamente modelli di intelligenza artificiale in modo che si rifiutino di generare determinati tipi di output, anche se alcuni utenti potrebbero voler personalizzarli in modi personalmente distorti o dannosi.
OpenAI sta anche investendo in ricerca e ingegneria per ridurre i pregiudizi evidenti e sottili nel modo in cui ChatGPT risponde a diversi input, in particolare in contesti politicamente carichi. È un processo iterativo in cui cercano attivamente input dagli utenti e dal pubblico più ampio e implementano miglioramenti nel modo in cui vengono determinati i comportamenti predefiniti e fissati i limiti rigidi.
La trasparenza dei processi, dei cambiamenti e delle politiche di implementazione fornisce un altro importante meccanismo per affrontare i pregiudizi e garantire un uso etico dell’IA. OpenAI mira a ritenersi responsabile condividendo aspetti cruciali del proprio lavoro con il pubblico in un modo che rispetti l’intelligenza, l’autonomia e la diversità della sua comunità di utenti.
OpenAI riconosce inoltre i limiti e si impegna ad apprendere e migliorare poiché mira a rendere ChatGPT il più neutrale possibile. Capiscono che potrebbero esserci ancora errori e potenziali pregiudizi che derivano da circostanze impreviste dovute alla complessità intrinseca del linguaggio e della comunicazione. Pertanto, si dedicano a perfezionare questo sistema di intelligenza artificiale, accompagnandone la crescita con un robusto meccanismo di feedback.
In conclusione, affrontare le preoccupazioni etiche associate ai pregiudizi è un processo sfaccettato. L’approccio di OpenAI alla gestione dei bias in ChatGPT prevede linee guida dettagliate per i revisori umani nel processo di messa a punto, un ciclo di feedback iterativo, trasparenza, comportamento dell’IA personalizzabile entro limiti etici, nonché ricerca e miglioramenti continui. Attraverso questo processo olistico, ChatGPT si impegna a mantenere l’integrità etica e a ridurre al minimo i pregiudizi per fornire uno strumento vantaggioso e imparziale per gli utenti di tutto il mondo.