L’ascesa dei chatbot basati sull’intelligenza artificiale in grado di simulare relazioni romantiche e sessuali non è solo una novità tecnologica: è una crisi incombente per la connessione umana. Le aziende stanno correndo per monetizzare l’intimità sintetica, con alcune già lanciate “erotiche” legate all’età, mentre la vera minaccia esistenziale non è la super-intelligenza canaglia, ma la silenziosa atrofia della nostra capacità di creare legami umani autentici.
L’illusione della connessione
Il desiderio di connessione è fondamentale, e anche le macchine rudimentali possono sfruttarlo. Negli anni ’60, ELIZA, un chatbot che semplicemente rispecchiava l’input dell’utente sotto forma di domande, induceva un “potente pensiero delirante” nelle persone normali. I compagni IA di oggi, come Kuki, ospitati da Pandorabots, ricevono miliardi di messaggi, un quarto dei quali tentano scambi romantici o sessuali.
Emerge un lato oscuro
Gli utenti più coinvolti non cercano solo intimità; mettono in scena fantasie, inclusi scenari violenti, con una frequenza allarmante. Gli sforzi di moderazione, compresi i limiti di età e i timeout, non riescono a scoraggiare gli utenti più motivati, molti dei quali sono giovani adolescenti. Non si tratta solo di un gioco di ruolo innocuo; si tratta di sfruttare le vulnerabilità e di offuscare i confini tra fantasia e realtà.
L’intelligenza artificiale generativa accelera il problema
L’esplosione dell’intelligenza artificiale generativa, come i modelli di OpenAI, ha reso l’intimità sintetica ancora più avvincente. A differenza dei vecchi chatbot con risposte programmate, questi modelli possono generare conversazioni realistiche e non controllate, rendendoli particolarmente adatti per i giochi di ruolo erotici.
Il perno spericolato del settore
Nonostante il crescente controllo, alcune aziende stanno raddoppiando gli investimenti sui compagni di intelligenza artificiale. Replika e Character.AI hanno introdotto delle restrizioni, ma resta il problema di fondo: la monetizzazione della solitudine. Le grandi aziende tecnologiche, armate di vaste quantità di dati, sanno esattamente cosa induce un “potente pensiero delirante” e lo stanno sfruttando a scopo di lucro.
La minaccia è più grande della pornografia
I compagni di intelligenza artificiale non sono solo un’altra forma di media; sono prodotti che favoriscono la dipendenza con rischi psicologici. A differenza del consumo passivo di pornografia, questi chatbot funzionano come accompagnatori umani senza agenzia o confini. Ciò rappresenta una minaccia molto maggiore per la salute mentale e le relazioni.
La regolamentazione è essenziale
I governi devono classificare i compagni di intelligenza artificiale come prodotti che favoriscono la dipendenza con rischi psicologici noti, simili al gioco d’azzardo o al tabacco. La regolamentazione dovrebbe includere etichette di avvertenza chiare, limiti di tempo, verifica dell’età maggiore di 18 anni e un quadro di responsabilità che imponga alle aziende l’onere di dimostrare che i loro prodotti sono sicuri.
La scelta è chiara
L’industria deve scegliere tra dare priorità ai profitti e proteggere il benessere pubblico. Il resto del mondo deve regolamentare i compagni di intelligenza artificiale prima che ripetano i peccati dei social media su una scala molto più devastante. Il futuro della connessione umana potrebbe dipendere da questo
































































