Non condividere la stanza o la vita con il tuo compagno di stanza psicologo virtuale! L'assurdità artificiale

Psicologi robot e psicoterapia con “persone” virtuali senza empatia? Non riesco nemmeno a sentirmi bene quando i miei studenti di psicologia sollevano questa curiosità (non all'unanimità), anche se è facile spiegare loro che è tutta una bufala, semplicemente perché è associata all'espressione Intelligenza Artificiale (IA). Si tratta di un chatbot che fornisce una serie di informazioni memorizzate senza contesto. Tutto ciò che riguarda l'intelligenza artificiale sembra interessante, sembra appena apparsa e siamo fortunati a vivere nell'era suprema. Ma la verità è che l'intelligenza artificiale esiste da quando è nato Internet e da quando abbiamo iniziato a inviare messaggi di testo sui nostri cellulari.
Ciò che mi turba davvero, però, è il pensiero che vengano concessi finanziamenti scientifici per progetti inutili e immorali, come quello di uno psicologo robot chiamato Roomie . Già solo il nome dell'invenzione lascia a desiderare (tradotto dall'inglese significa "compagno di stanza" o coinquilino senza una relazione intima). Se ci fossero finanziamenti scientifici e un'approvazione etica per questo progetto, la scienza andrebbe perduta e le fondamenta della psicologia sarebbero compromesse. Vogliono evolversi a tal punto che "traducono" oltre ciò che è accettabile. Utilizzo proprio la forma verbale "trasladam" per esprimere l'effetto sinistro e fatale che, nel complesso, un coinquilino inventato può avere sulla vita delle persone che si lasciano ammaliare dal canto fallace della sirena.
In effetti, adesso ho un barlume di speranza: poco fa mi sono fermata con il mio cane gigante in macchina (era sul sedile posteriore) e diversi bambini si sono avvicinati insistendo che si trattava di "un cane finto", un "cane robot". E non volevano toccarlo, ecco perché. Ma loro erano stupiti. Quando li ho calmati e ho detto che potevano "accarezzarlo" perché era un cane vero, allora sono corsi tutti ad abbracciarlo, perché non era "finto". Spero che questo accada con i finti chatbot terapeutici. Non toccarlo, non fidarti di lui e stai lontano da queste idee.
Ho letto da qualche parte, poiché non vale la pena citare una fonte del genere, che gli psicologi robot sono dei buoni alleati nel comprendere i sentimenti del paziente durante le visite. Ho appena scritto questa frase e non c'è nulla di sensato tra parole come "alleati", "capire", "sentimenti", "consultazioni"... ideate in un progetto che è stato approvato per la "mente" robotica. Una mente che mente.
E, a proposito di parole e mancanza di connessione, come esperto di psicologia del linguaggio e simili, non capisco come loro (entità rinomate) abbiano ritenuto che questo progetto di intelligenza artificiale sia un esempio fruttuoso di modelli linguistici avanzati. Il linguaggio è e sarà sempre innanzitutto umano perché è il luogo in cui risiede il significato. Possiamo programmare e alimentare i robot con i nostri programmi di linguaggio neurale, ma non possiamo voler essere degli avari Icaro quando si tratta di assistenza sanitaria mentale.
Ora, quando leggo oscenità sulla conoscenza come quella di un robot che "capisce i sentimenti", non ho voglia di immaginare quale prescrizione lo psicologo raccomandi al paziente o all'utente. E, per prescrizione medica, sappiate che non è affatto un medicinale. Per questo motivo, il finanziamento di un robot psichiatrico deve essere ancora consentito.
Gli algoritmi non determinano come identificare, trattare e consigliare nell'ambito della salute mentale. Negli algoritmi non esiste alcuna "molecola" di empatia. E come programmare la coscienza empatica? Non ho nemmeno bisogno di sentirmi minacciato dai miei colleghi che, lavorando come psicologi e psicoterapeuti, temono l'intelligenza artificiale. Non hai paura di qualcosa che non sa prendersi cura di nessuno. La cosa peggiore è stata quando ho letto che questo Rommie vuole presentarsi come uno specialista con dieci anni di esperienza e (vuole) anche essere in grado di lavorare in psicoanalisi. Entro la fine del 2025 (la data prevista per Rommie ) avremo un olocausto della psiche umana. Questo articolo non è solo un'opinione, ma un consiglio su come evitare le mode irragionevoli in fatto di intelligenza artificiale. Non cercare coinquilini come questo " roomie " perché non esiste risparmio sulle consulenze "vere".
sapo