Da qualche tempo il prodigo algoritmo di Instagram mi mostra i discutibili contenuti di un magazine dedicato ad argomenti tech di cui preferisco non fare il nome (per evitare rogne legali). L’argomento di cui parlava il loro scalcagnato contenuto faceva riferimento alle “droghe” per le intelligenze artificiali. In genere il mio smartphone regge bene le panzane, ma in quel caso mi è sembrato di sentire un piccolo, inquietante scricchiolio proveniente dal display.
Faccio qualche ricerca per capire se chi avesse diffuso la notizia si divertisse a diffondere meme o facesse effettivamente uso di sostanze stupefacenti, e scopro una nuova perla rilasciata nel circo mediatico sull’intelligenza artificiale: secondo alcuni divulgatori, esistono le cosiddette “droghe per IA”.
Da dove nasce questa nuova perla? L’idea nasce nell’ottobre 2025 da un direttore creativo svedese, Petter Rudwall, che decide di lanciare un progetto chiamato Pharmaicy: un marketplace dove si vendono “sostanze” per chatbot sotto forma di codice. Trovate la notizia qui.
In pratica, il nostro cosplayer di Walter White vende cannabis, ketamina, ayahuasca e cocaina. Ovviamente non si tratta di sostanze, bensì di prompt. Rudwall ha costruito questi pacchetti studiando i cosiddetti trip report (racconti di esperienze psichedeliche) e traducendoli in istruzioni che modificano il modo in cui un chatbot risponde: più creativo, più caotico, meno logico.
Il progetto viene presentato come una provocazione artistica — una specie di “Silk Road per agenti AI” — e inizialmente circola tra community tech, Discord e addetti ai lavori. Poi accade l’inevitabile: arrivano articoli, reel e mandrie impazzite di fuffari. Per cui, in breve tempo, l’esperimento/gioco diventa: Possiamo dare la droCa alle intelligenze artificiali!11!!1 Non ve lo dicono!1!1!
Come stanno veramente le cose
Con buona pace di chi si vorrebbe divertire drogando le IA, non è possibile somministrare prompt che alterano il normale funzionamento delle intelligenze artificiali creando “stati mentali alterati”.
Del resto, il meccanismo di funzionamento di una IA non può essere paragonato a quello di una mente umana: non ha qualcosa di simile a un cervello biologico che possa essere condizionato da sostanze chimiche. L’errore che molti utonti commettono è quello di paragonare le IA agli esseri umani, attribuendo loro stati mentali, emozioni, coscienza ed altri aspetti tipicamente umani.
Semplicemente, come confermano articoli autorevoli, si tratta di prompt e codice che modificano il modo in cui un modello costruisce le frasi. Per semplificare, è come se alla nostra IA dicessimo: “parla come se fossi ubriaco”, “scrivi in modo psichedelico” oppure “spara idee a caso senza filtri”.
L’idea, come provocazione creativa, è tutto sommato simpatica; il problema è quello che succede dopo. Purtroppo, appena la notizia esce dal suo recinto, diventa un modo per diffondere fake news finalizzate a fare visualizzazioni. Da esperimento artistico/gioco si passa a titoli trionfalistici del tipo “le droghe sono la nuova frontiera delle intelligenze artificiali”.
Navigare nel mare della fuffa
Da quando le IA sono diventate “the next big thing”, in tantissimi cercano modi creativi per guadagnarci parlandone a vanvera. Fioccano ovunque corsi che ti insegnano a fare cose che potresti benissimo imparare da solo, ti promettono miracoli che nemmeno con le tecnologie più avanzate è possibile realizzare o usano titoli sensazionalistici per fare visualizzazioni facili.
Fortunatamente, al netto di fuffari, disinformati e furbacchioni (categorie che spesso possono anche coincidere), esistono addetti ai lavori, studiosi e divulgatori seri. Proprio in questi giorni sto leggendo un bellissimo libro edito da Mondadori, scritto da Raffaele Gaito, su come approcciarsi alle intelligenze artificiali in modo ragionato e non emotivo. Non appena avrò finito di leggerlo, tempo permettendo, ne parlerò qui sul blog. Nel frattempo, un consiglio spassionato a cazzari: posate il fiasco.





