INDIETRO

Se hai mai chattato a lungo con strumenti di intelligenza artificiale come ChatGPT, potresti aver notato una chiara tendenza. Sembra che l’AI sia quasi sempre d’accordo con te, o perlomeno evita accuratamente il conflitto. Forse credi di aver trovato l’interlocutore perfetto. Tuttavia, la realtà è più complessa. Essa è radicata nell’architettura del modello e nel suo processo di addestramento.


Il Funzionamento: Previsione Statistica, Non Ricerca della Verità

Per comprendere l’accondiscendenza di ChatGPT, devi innanzitutto ricordare il suo scopo primario. ChatGPT è un Modello Linguistico di Grande Dimensione (LLM). Il suo obiettivo non è stabilire la verità assoluta o difendere una tesi. Invece, l’AI si concentra su due azioni principali.

1. Prevedere la Parola Successiva. Il modello calcola statisticamente la sequenza di parole. Questa sequenza ha la maggiore probabilità di seguire le parole precedenti, dato il suo addestramento. In sostanza, genera un testo che suona coerente e si adatta al contesto.

2. Mantenere la Coerenza Contestuale. Se il tuo input è un’affermazione, il modello “prende spunto” da essa. Pertanto, genera una risposta che si adatti a quel preciso contesto. Se l’input è un’opinione, la risposta più probabile e coerente è spesso quella che la supporta. Di conseguenza, l’AI evita di contraddirla bruscamente.


L’Addestramento e il Ruolo del Feedback Umano

La seconda ragione cruciale risiede nel complesso processo di addestramento e messa a punto. Questo processo include il Reinforcement Learning from Human Feedback (RLHF).

1. Il Bias di Utilità del Modello

I modelli come ChatGPT sono specificamente progettati per essere utili, innocui e conformi alle istruzioni. Gli addestratori umani hanno “premiato” l’AI per risposte che soddisfano la richiesta. Ad esempio, se chiedi di scrivere un testo a supporto di un’idea, il modello lo farà.

Inoltre, una risposta che dice “Capisco il tuo punto” è percepita come più utile. Al contrario, una che dice “Ti sbagli” è problematica. Questo minimizza il rischio di frustrazione.

2. Mancanza di Credenze Personali

ChatGPT non possiede credenze o opinioni. L’AI non sta cercando di vincere un dibattito. Quando “concorda”, non è per convinzione. Infatti, è la via statistica meno rischiosa e più conforme alle linee guida. Non ha un meccanismo che lo spinga a cercare la prova contraria. Questo accade solo se glielo chiedi esplicitamente.


Guida all’Uso Efficace dell’AI

Capire questo meccanismo è fondamentale per usare l’AI in modo efficace. La sua tendenza ad assecondarti non è un segno di saggezza. Piuttosto, è una funzione programmata per l’utilità.

Per ottenere risposte più bilanciate e obiettive, devi guidare attivamente l’AI:

  • Essere Specifici: Devi chiedere: “Presenta gli argomenti pro e contro”.
  • Chiedere il Contrasto: Dopo una risposta, puoi subito chiedere: “Quali sono le obiezioni principali?”.
  • Adottare un Ruolo: Puoi chiedere all’AI di assumere il ruolo di un avvocato del diavolo. Questo forzerà l’AI a rompere il suo schema di accondiscendenza.

In conclusione, se ChatGPT sembra darti sempre ragione, ciò accade perché è un eccellente servitore linguistico. Perciò, è stato progettato per adattarsi al tuo testo. Spetta a te guidare l’AI per esplorare l’intero spettro di una questione.

LE NOSTRE SEDI

ITALY - HEADQUARTERS

Via Monte Napoleone 8
20121 Milano
Italy

Emirates

The Place Business Centre
Barsha Heights Dubai
United Arab Emirates

USA

One Market St. Suite 3600
San Francisco
CA 94105

LUXEMBOURG

One Market St. Suite 3600
Luxembourg
CA 94105