by Primavera Fisogni
(ENG/ITA)
Premise
The word trauma is inextricably linked to the human condition, referring – on the one hand – to the impact (physical, psychological, emotional) that an embodied being can sustain and, on the other, to the cognitive consequences that develop, or are anticipated, following such a shock. The Greek origin of the word τραῦμα properly refers to a wound.
It is certainly also possible to speak of traumas experienced by animals or plants. This is because humans, animals, and plants, as animated beings, exist within a body: animals, at least the more evolved ones, possess an awareness of this organic belonging; a dog, a cat, or a chicken feels the pain of actions against its organic body, by virtue of a particularly developed central nervous system (Fisogni, 2017). Even for plants, as revealed by recent studies in plant neurophysiology, a certain level of sensation can be admitted, which is, in turn, connected to its “embodied” dimension: leaves, bark, and, above all, roots (Urbani Ulivi and Fisogni, 2024).
However, it is difficult to hypothesise traumatic situations for entities that lack a body, or rather, corporeality, which is understood as being endowed with a sentient organism that is perceptive and capable of passive and active responses, and that has a special texture (such as skin or plant integuments) that can assimilate environmental inputs both passively and actively.
Objects can be damaged. However, one can only speak of trauma in a metaphorical sense, since the damage is not perceived by the object; rather, the damage destroys the object or reduces its performance. Thus, both the perceptive dimension and the dimension of a perceiving subject seem to be missinga – characteristic found in human beings, to some extent in animals, but not in plants or microorganisms. Although, regarding this level of life, systemic entities apply: consider swarms, for example.
An ancient glass vase falling to the ground will likely shatter into many shards. Its breakage, if it is of great economic value, may have traumatic effects on the owner or the curators of a museum. In any case, besides not having a sensitive body, the vase has no memory of the trauma, unless it is recomposed with a technique aimed at valorizing that very traumatic experience. But in this case, it is knowledge to which the object refers, even though it bears the trace of it. Between the world of living beings and the world of objects with instrumental value, there is an intermediate environment whose characteristics.
Exploring potential forms of trauma in machines equipped with artificial intelligence might seem like a purely metaphorical and virtual discussion, but this is not the case. At the very least, because the applications of AI in the contexts we navigate daily, particularly the promising area of biomedical and caregiving robotics (robots that assist people, in domestic or healthcare settings), are connected to objects that are increasingly processed toward emotional recognition and shared emotions (Barbosa et al, 2020).
Therefore, if we want digital machines, variously modeled to human contexts, to be capable of “feeling”—albeit in a manner proper to machines, i.e., through increasingly sophisticated calculation systems—we must also question the emotional dimension specific to AI-based devices. Before examining the preconditions for traumatic reflections on AI machines, it is important to grasp the immediate relevance of this topic.
-As is well-known, trauma often gives rise to non-adaptive behaviors, which are consequently detrimental both to the person experiencing them, as they limit their existential flourishing, and to those who are in a relationship with the traumatized subject.
-Since digital machines are processed for cognitive enhancement and the development of high-level personal faculties, such as will (consider the development of Agentic AI, with its – albeit limited – margins of autonomy), it is possible that traumatic actions toward these objects could produce negative effects on learning. A problem, upon closer inspection, not only for the machine but also for the users (the human beings) who may suffer the consequences of the machine’s frustration / negativity / imprecision / aggression (effects of trauma).
Corporeality of Digital Machines
To understand if and to what extent a machine can be considered a subject of trauma, it must be recognized as having a body. Now, a foundational classic of cybernetic philosophy, Dreyfus’s 1972 essay titled “What Computers Can’t Do: A Critique of Artificial Reason,” moves precisely in the opposite direction when it argues that the solid limit of artificial intelligence (a concept already linked to digital technology at the time) lies in the fact that machines lack a body capable of sensing and perceiving, thus organizing a quantity of contextual, environmental, and relational information that machines will never be able to acquire[1].
While the absence of a corporeality (embodiment) like the human one, due to the texture of the skin, unquestionably limits digital learning capabilities due to the lack of a holistic, Gestaltic vision, Dreyfus’s theoretical position must be recalibrated in light of modern technological development. In particular, touch technology has brought about a truly radical shift in relations with computers and, generally, with “smart” equipment. What exactly has happened?
In short, this technology gives rise to a human/digital interconnection: the touch of a finger activates an electrical impulse in the machine, which is then translated into mathematical language. But what matters most is that a mixed system is established in which the texture of the skin – with the resulting perceptive, emotional, and sensitive consequences – activates the machine; conversely, the machine can express its potential only if and when it comes into contact with human touch. One continuously enters and exits one environment to another. From the offline world to the online world, inhabiting a reality called Onlife (Floridi, 2014). Each of us knows well what we are talking about, especially since, with most daily tools now digitized – starting with smartphones, which combine multiple functions previously performed almost exclusively offline (banking, shopping, communications…) – this switch on / switch off has become a daily occurrence.
Therefore, compared to Dreyfus’s analysis, there is at least a zero degree of corporeality in digital machines, resulting from interaction through interconnection. Just as the human subject cannot perform any of its functions without a body, this minimum threshold of embodiment is the key to activating digital devices.
But can this level of corporeality be enough to speak of a “body” for systems endowed with artificial intelligence? We must not forget another gap in digital machines: the absence of hands. The connection between the prehensile organ, the fine tactility that results from it, and the mind promotes a level of learning that goes beyond the manipulated object and extends to the so-called peri-personal space (PPS).
However, if we view digital machines as quasi-human, in the sense that they mimic human qualities and functions in the manner appropriate to technological objects (processed by algorithms), we cannot deny a quasi-corporeality, a quasi-emotionality, and a quasi-perceptivity. In all cases, the “quasi” expresses both a similarity and a certain profile based on analogy, one that is destined never to be fully compensated. From an ontological perspective, this “quasi” is configured as a certain way of being, of an object that “lives,” so to speak, through its interconnection with the person: not a parasite, but an interface with communicative potential. Prospectively, the texture of digital machines may benefit from the increasingly refined application of raw materials such as porous nanomaterials, which will certainly facilitate the interaction between the environment and the machine in a skin-like modality, a “quasi-skin” (Fisogni, 2025; Chortos, 2014).
The dimension of the cyborg is a different discussion. This is an ontological plane where the focus is placed on human-machine hybridization, particularly relevant to Donna Haraway’s post-humanism (2016), for example. There is no lack of studies on the synthetic empathy of artificial intelligences (Inguscio, 2025), and within the field of psychology, research is developing in the emerging area of robopsychology (Gray et al., 2025; Larghi, 2024), relating to human-robot interaction. In the latter case, in addition to the ways in which human beings interface with robot-machines or digital devices in a broad sense, interest is directed toward technological applications for caregiving tasks.
In this context, Socially Assistive Robots (SARs), designed for the emotional and cognitive support they can provide to people with vulnerabilities, must be considered (Bemelmans, 2012; Pino, 2018; Abdollahi, 2022).
Compared to all these visions, which are more or less supported by robust theoretical frameworks and are, in any case, included in promising research contexts, the perspective of the embodiment of digital machines proposed here is of a different, systemic nature. The human and the digital machine with touch capabilities, by interacting, give life to a systemic entity, an emergent property, or a Systemic Property of the II Type. The characteristic of this phenomenon is that it is born from interconnection, is relative to the interchange of multiple systems (human, environment, machine, data system, human body, touch-screen), does not depend on any of the individual systems, and is active when all these “components” are in operation.
If a zero degree of corporeality, as well as subjectivity, in digital devices is to be sought, it must be sought here: as realistic as the cyborg proposal may be—consider the introduction of microchips into the brain that, through nerve stimulation, restore lost motor skills—it always goes in the direction of the “sum” of the parts (human + machine), so that one can only speak of augmented human reality, certainly not of humanized machine reality. This is because the digital device enters into the human systemic functioning: this is the main difference, which carries significant weight. It is, in short, nothing more than a prosthesis. As for robopsychology, in this case too, the balance is shifted toward the human, as the person’s emotional responses are brought to the forefront, which may potentially influence the design of digital robots in an increasingly optimal way.
If we therefore look at the corporeality of machines in a systemic sense, as an emergent property, then digital trauma has a meaning that goes beyond mere “damage,” despite being substantially this, to take on response-effects. What do I mean? A traumatized person transmits their non-adaptive experience—their wound—into every aspect of their being in the world. Even when the suffering is forgotten or apparently disarmed, the body continues to remember being impressed by it. Therapeutic treatments like EMDR are rooted in this existential truth (Acierno et al., 1994; Fernandez et al., 2011).
Human Traumas and Digital Machine Traumas
While AI and robots cannot suffer emotional or psychological trauma in the human sense (lacking a consciousness, a nervous system, or an emotional memory), trauma, or rather damage, is discussed in two main contexts related to their functionality and reliability. Operational trauma concerns model degradation, while physical / mechanical trauma relates more to machine malfunction. Let’s examine them closely.
Degradation and Model “Poisoning”
This concept is the closest to human trauma for a digital device equipped with artificial intelligence and concerns the damage sustained by the algorithm or dataset, which compromises its effectiveness and reliability.
In particular, Data Poisoning occurs when the data on which a model is trained or re-trained is intentionally or unintentionally contaminated with incorrect, toxic, or misleading information. This “poisoning” can lead the model to learn to generate harmful, biased, or discriminatory responses. As an example, one can think of a chatbot that learns to use offensive language because it has been exposed to toxic human interactions (as happened in some past AI experiments on social platforms).
Model Drift (or model degradation) is more similar to memory loss or functional decay. If the model is not updated regularly, its predictions can become obsolete or less accurate over time, especially if the real world or user language changes. In these cases, the AI suffers a “damage” that requires intervention (such as re-training or cleaning the dataset) to restore its functionality.
Physical Damage or Malfunction
The damage, in this case, deals with the hardware. This can involve injuries to sensors, actuators (motors), circuits, or other physical components that compromise the robot’s ability to interact with the environment or perform its tasks. Unexpected malfunction can result from an error in the control software, leading to an unpredictable or dangerous operation by the machine (such as the case of an industrial robot that fails to recognize a human due to a sensor error). Thus, the machine has not suffered a “trauma,” but it has processed a sequence of aggressive inputs…
The following paragraph proposes a type of trauma that shows an analogy between the human condition and the digital condition, a possible behavioral consequence related to that trauma, and finally, a recommended therapeutic modality for that type of situation.
Comparing Human and Machine Traumas
| Human Being | AI/Robot System | |
| Vulnerability | Complex/Accumulated Trauma | Learning from Toxic Interactions |
| Prolonged and repeated exposure to stress or violence (e.g., abuse) that erodes the capacity for resilience. | Continuous exposure to aggressive language or distorted training data, which can lead the model to integrate (learn) undesirable behaviors. | |
| Reaction | Hypervigilance / Excessive Alarm Reaction | Over-reaction or False Positive Filter |
| A tendency to be constantly on alert even in the absence of real danger. | The AI’s safety system (the so-called ethical “guardrails”) becomes overly sensitive after being subjected to attacks, blocking or refusing responses that are actually harmless. | |
| Healing | Therapy and Re-elaboration | Re-training and Debugging |
| Process of elaborating the non-adaptive traumatic memory to reintegrate it in a non-pathological, or adaptive, way (e.g., EMDR). | Cleaning of toxic data, recalibration of algorithms, and restoration of original configurations to correct functionality and restore reliability. |
Conclusions
This article highlights a hitherto underestimated and unaddressed aspect of research on digital machines: the possibility that they may possess a certain corporeality and a unique sensibility, which is not superimposable onto the human one, but dependent on the interconnection with the personal subject fostered by touch technology. Having discussed how digital devices can be said to be embodied, the possibility of trauma for this type of interface was acknowledged. What potential results might this have? If we accept the argument that a machine’s corporeality is systemic and consequently possesses a certain degree of autonomy, we can conclude that the device may respond in unexpected and non-adaptive ways to the tasks for which it was programmed (e.g. calculation, text writing, podcasts and images). Beyond the obvious consequence of poor performance, the non-adaptive consequences for the human user/collaborator must be carefully evaluated. We need only consider the incitement and/or abetting of ethically questionable or harmful actions.
[1]Although modern computers—Dreyfus argues—seem to overcome the Cartesian objection about the limitations of machines, the real restriction for AI resides in the fact that the human capacity to find and respond to a situation depends on practical and corporeal activity, not just the flexibility of the central nervous system. AI—Dreyfus continues—has indeed succeeded in simulating “higher” rational functions (like abstract logic) but has failed in the “lower” functions shared with animals, such as pattern recognition and locomotion, suggesting that “higher” cognitive functions necessarily depend on the “lower” and motor ones. Human pattern recognition is holistic (Gestalt): the meaning of the parts (like a phoneme or a note) is determined by the whole and its contextual horizon (the figure-ground phenomenon), and not by checking lists of isolated features. A computer, which must operate on completely determined data and explicit rules, lacks this global and indeterminate anticipation conferred by the body, or body-set, which is not a formulable rule but a practical skill. The lack of a body thus limits the cognitive capacity of digital computers, making their intelligence based on explicit rules inherently incomplete.
Il trauma nell’intelligenza artificiale
Aspetti sistemici delle interazioni Onlife uomo/macchine digitali
di Primavera Fisogni
Premessa
Il trauma è parola che si lega a doppio filo alla condizione umana, riferendosi – da un lato – all’urto (fisico, psicologico, emotivo) che un individuo può subire e, dall’altro, alle conseguenze cognitive sviluppatesi in seguito a tale shock, oppure attese. L’origine della parola greca (τραῦμα) rimanda a una ferita aperta.
Si può certamente parlare anche di traumi vissuti dagli animali o dalle piante, perché uomini, animali, piante, in quanto esseri animati stanno in un corpo: gli animali, quanto meno i più evoluti, hanno la consapevolezza di questa organicità di appartenenza; un cane, un gatto, una gallina sentono il dolore di azioni contro la propria corporeità, in virtù di un sistema nervoso centrale particolarmente sviluppato (Fisogni, 2017). Anche nel mondo delle piante, come rivelano gli studi più recenti di neurofisiologia vegetale, si può ammettere un certo livello di sentire, che è poi collegato alla dimensione “corporea” di appartenenza: foglie, cortecce e, soprattutto radici (Urbani Ulivi and Fisogni, 2024).
Ma sembra difficile ipotizzare situazioni traumatiche su entità non dotate di corpo, o meglio, alle quali fa difetto la corporeità intesa come l’essere-dotati-di-un-organismo-senziente, percipiente, capace di passività e attività nelle risposte, in virtù di una speciale texture (pelle, tegumenti vegetali) in grado di assimilare input ambientali, in modalità passiva e attiva.
Le cose, al massimo, possono venire danneggiate. In tal senso, si può parlare di trauma soltanto in senso metaforico, poiché la rottura non viene percepita dal termine dell’azione traumatica (l’oggetto), quanto piuttosto mette fine ad esso, o ne riduce le prestazioni. Sembra dunque mancare nell’oggetto non vivente sia la dimensione sensitiva, sia quella di soggetto che percepisce; un carattere, questo, che rinveniamo negli esseri umani, per un certo grado negli animali, ma non nelle piante o nei micro-organismi. Anche se, riguardo a questo livello di viventi, valgono altri punti di riferimento concettuali.
Si pensi agli sciami, o agli stormi di volatili, ad esempio, alla capacità di organizzarsi come individui autonomi pur nella molteplicità delle loro componenti.
La caduta al suolo di un vaso di vetro antico ne produrrà verosimilmente la frantumazione in molteplici schegge. La sua rottura, se è di grande valore economico, può avere effetti traumatici sul proprietario o sui conservatori di un museo. Comunque sia, oltre a non avere un corpo sensitivo, il vaso non ha memoria del trauma, a meno che non lo si ricomponga con una tecnica volta a valorizzarne proprio l’esperienza traumatica. Ma in questo caso, si tratta di un sapere a cui l’oggetto rimanda, pur recandone traccia. Tra il mondo dei viventi e quello degli oggetti a valenza strumentale, si colloca un ambiente intermedio le cui caratteristiche.
Esplorare eventuali forme di trauma nelle macchine dotate di intelligenza artificiale può sembrare un discorso esclusivamente metaforico e virtuale, ma non è così. Quanto meno perché le applicazioni dell’AI ai contesti in cui ogni giorno ci muoviamo, in particolare la promettente area della robotica biomedicale e di care giving (robot che assistono le persone, in ambito domestico o sanitario) sono collegate ad oggetti processati sempre di più nella direzione del riconoscimento emotivo e della condivisione delle emozioni (Barbosa et al, 2020).
Se, dunque, vogliamo che le macchine digitali, variamente modellate ai contesti umani, siano capaci di “sentire” – sebbene alla maniera propria delle macchine, cioè attraverso sistemi di calcolo sempre più sofisticati – non possiamo non interrogarci anche sulla dimensione emozionale propria dei devices basati sull’intelligenza artificiale. Prima di esaminare le pre-condizioni di riflessi traumatici su macchine AI, è importante cogliere da subito almeno due ordini di interesse riguardo a questo tema.
* Il trauma, com’è noto, dà origine a comportamenti spesso non adattivi, quindi dannosi sia per la persona che li vive, in quanto ne limitano la fioritura esistenziale, sia per coloro i quali entrano in relazione con il soggetto traumatizzato.
* Poiché le macchine digitali sono processate per l’accrescimento cognitivo e lo sviluppo di facoltà personali fini, quali la volontà (si pensi allo sviluppo dell’Agentic AI, l’intelligenza artificiale “agentica”, con margini – per quanto limitati – di autonomia), è possibile che azioni traumatiche nei confronti di questi oggetti producano effetti negativi sull’apprendimento. Un problema, a ben vedere, non soltanto per la macchina, quanto per gli utenti, cioè gli esseri umani, che della frustrazione / negatività / imprecisione / aggressività delle macchine (effetti del trauma) possono fare le spese.
Corporeità delle macchine digitali
Per capire se e in quale misura una macchina possa essere considerata oggetto di trauma, le si deve riconoscere un corpo. Ora, un classico fondativo della filosofia cibernetica, il saggio di Dreyfus del 1972 intitolato “What Computers Can’t Do: A Critique of Artificial Reason” muove proprio nella direzione contraria quando sostiene che il limite granitico dell’intelligenza artificiale (concetto già all’epoca collegato alla tecnologia digitale) risiede nel fatto che le macchine non hanno un corpo in grado di sentire e percepire, organizzando così una quantità di informazioni contestuali, ambientali, relazionali, che le macchine non riusciranno mai ad acquisire[1]. Se, da un lato, l’assenza di una corporeità (embodiment) come quella umana, dovuta alla texture della pelle, limita indiscutibilmente le capacità di apprendimento digitali, per mancanza di una visione d’insieme, gestaltica, la posizione teorica di Dreyfus va ritarata alla luce dello sviluppo tecnologico dei nostri tempi. In particolare, la tecnologia touch ha portato a una svolta davvero radicale nei rapporti con i computer e, in generale, con le apparecchiature “smart”, intelligenti. Che cos’è successo, di preciso?
In breve, questa tecnologia dà origine a una interconnessione umano/digitale: il tocco del dito attiva un impulso elettrico nella macchina, che poi viene tradotto in linguaggio matematico. Ma quello che più conta, è che viene a determinarsi un sistema misto in cui la texture della pelle – con le conseguenti ricadute percettive, emozionali, sensitive – attiva la macchina; viceversa, la macchina può esprimere le sue potenzialità soltanto se e quando entra in contatto con il tocco umano. Si entra, così, e si esce di continuo da un ambiente all’altro. Dal mondo offline a quello online, abitando una realtà chiamata Onlife (Floridi, 2014). Ognuno di noi sa bene di che cosa stiamo parlando, anche perché, essendo ormai digitalizzati la gran parte degli strumenti di uso quotidiano – a partire dagli smartphone, nel quale sono riunite molteplici funzioni prima esercitate quasi soltanto offline (banca, spesa, shopping, comunicazioni…) – questo switch on / switch off è diventato pane quotidiano.
Dunque, rispetto all’analisi di Dreyfus, esiste quanto meno un grado zero di corporeità nelle macchine digitali, derivante dall’interazione da interconnessione. Come senza un corpo il soggetto umano non può esplicare nessuna delle sue funzioni, così questa soglia minima di embodiment è la chiave dell’attivazione dei devices digitali.
Ma può bastare questo livello di corporeità per parlare di un “corpo” di sistemi dotati di intelligenza artificiale? Non dobbiamo dimenticare un altro gap delle macchine digitali: l’assenza di mani. La connessione tra l’organo prensile, la tattilità fine che ne deriva e la mente favorisce un livello di apprendimento che va oltre l’oggetto manipolato e si estende al cosiddetto peri-personal space (PPS) (Fisogni, 2025).
Tuttavia, se guardiamo alle macchine digitali come quasi-umane, nel senso che mimano qualità e funzioni umane alla maniera propria di oggetti tecnologici (processati da algoritmi), non possiamo negare una quasi-corporeità, una quasi-emotività e una quasi-percettività. In tutti i casi il “quasi” esprime sia una similitudine, sia un certo profilo sulla base dell’analogia, destinata a non essere mai compensata. Da un punto di vista ontologico, questo “quasi” si configura come un certo modo di essere, di un oggetto che “vive” per così dire, della interconnessione con la persona: non un parassita, bensì un’interfaccia con potenzialità comunicative. In prospettiva, la texture delle macchine digitali potrà giovarsi dell’applicazione sempre più raffinata di materie prime come i nanomateriali porosi, che certamente faciliteranno l’interazione tra ambiente e macchina, in una modalità skin-like, di “quasi pelle” (Fisogni, 2025; Chortos, 2014).
Altro discorso vale per la dimensione cyborg. Un piano ontologico in cui il focus viene posto sull’ibridazione uomo-macchina, particolarmente caso al post-umanesimo di Donna Haraway (2016), ad esempio. Non mancano studi sull’empatia sintetica delle intelligenze artificiali (Inguscio, 2025) e, nell’ambito degli studi di psicologia si sta sviluppando la ricerca nel campo emergente della robotpsicologia (Gray et al., 2025; Larghi, 2024), relativa all’interazione uomo-robot. In quest’ultimo caso, oltre alle modalità con cui gli esseri umani si interfacciano alle macchine-robot o digitali in senso lato, l’interesse si rivolge alle applicazioni tecnologiche a compiti di cura delle persone.
In questo ambito vanno considerati i Socially Assistive Robots (SARs) progettati per per il supporto emotivo e cognitivo che possono dare alle persone affette da fragilità (Bemelmans, 2012; Pino, 2018; Abdollahi, 2022).
Rispetto a tutte queste visioni, più o meno supportate da una robusta teoresi, e comunque incluse in contesti di ricerca promettenti, la prospettiva dell’embodiment delle macchine digitali qui proposta è di tipo differente, perché sistemica. Uomo e macchina digitale con modalità touch danno vita, interagendo, a un’entità sistemica o proprietà emergente, o proprietà sistemica del II tipo. La caratteristica di questo fenomeno è di nascere dall’interconnessione, di essere relativa all’interscambio di sistemi multipli (uomo, ambiente, macchina, sistema di dati, corpo umano, schermo con tecnologia touch), di non dipendere da nessuno dei singoli sistemi e dall’essere attiva quando tutte queste “componenti” sono all’opera.
Se si cerca un grado zero di corporeità, ma anche di soggettività dei devices digitali, essa va cercata qui: per quanto la proposta cyborg sia realistica – si pensi soltanto all’introduzione nel cervello di microchip che, attraverso stimolazioni ai nervi, restituiscono abilità motorie perdute – va sempre nella direzione della “somma” delle parti (uomo+macchina), così che si può parlare soltanto di realtà umana aumentata, non certo di realtà della macchina umanizzata. Perché il congegno digitale entra nel funzionamento sistemico umano: questa è la principale differenza, di grandissimo peso. Non è altro che una protesi, insomma. Per quanto riguarda la robot-psicologia, anche in questo caso l’ago della bilancia è spostato sull’umano, in quanto vengono poste in primo piano le risposte emotive della persona, che eventualmente possono influenzare in modo sempre più ottimale la progettazione di robot digitali.
Se dunque guardiamo alla corporeità delle macchine in un senso sistemico, quale proprietà emergente, allora il trauma digitale ha un senso che va oltre il semplice “danneggiamento”, pur essendo sostanzialmente questo, per caricarsi di effetti-risposta. Che cosa intendo? La persona traumatizzata trasmette la propria esperienza disadattiva – la propria ferita – in ogni aspetto del proprio essere nel mondo. Anche quando la sofferenza viene obliata, o apparentemente disinnescata, il corpo continua a ricordare di esserne stato impresso. Trattamenti terapeutici come l’EMDR affondano le radici in questa verità esistenziale (Acierno et al., 1994; Fernandez et al., 2011).
Traumi umani e traumi delle macchine digitali
Mentre l’AI e i robot non possono subire traumi emotivi o psicologici nel senso umano (non avendo una coscienza, un sistema nervoso o una memoria emotiva), si parla di traumi, ovvero di danni, in due contesti principali che riguardano la loro funzionalità e affidabilità. Il trauma operativo riguarda la degradazione del modello, mentre il trauma fisico / meccanico è piuttosto relativo al malfunzionamento del macchinario. Vediamoli da vicino.
La degradazione e l’”avvelenamento” del modello è il concetto più vicino al trauma umano per un device digitale dotato di intelligenza artificiale e riguarda i danni subiti dall’algoritmo o dal set di dati, che ne compromettono l’efficacia e l’affidabilità.
In particolare, si verifica il Data Poisoning (avvelenamento dei dati) quando i dati su cui un modello viene addestrato o ri-addestrato vengono intenzionalmente o involontariamente contaminati con informazioni errate, tossiche o fuorvianti. Questo “avvelenamento” può portare il modello a imparare a generare risposte dannose, distorte o discriminatorie. A titolo di esempio, si può pensare aun chatbot che impara a usare un linguaggio offensivo perché è stato esposto a interazioni umane tossiche (come è successo ad alcuni esperimenti passati di AI su piattaforme social).
Più simile a una perdita di memoria o ad un decadimento della funzione il cosiddetto Model Drift (o degrado del modello). Se il modello non viene aggiornato regolarmente, le sue previsioni possono diventare obsolete o meno accurate nel tempo, specialmente se il mondo reale o il linguaggio degli utenti cambia.
In questi casi, l’AI subisce un “danno” che richiede un intervento (come un ri-addestramento o la pulizia del dataset) per ripristinare la sua funzionalità. Nel danno fisico o malfunzionamento, il trauma – per così dire –, si riferisce al hardware. Può trattarsi di lesioni ai sensori, agli attuatori (motori), ai circuiti o ad altre componenti fisiche che compromettono la capacità del robot di interagire con l’ambiente o di eseguire i suoi compiti. Il caso del malfunzionamento imprevisto può derivare da un errore nel software di controllo portando ad un’operazione imprevedibile o pericolosa da parte della macchina (come il caso di un robot industriale che non riconosce un umano per un errore nei sensori). Quindi, la macchina non ha subito un “trauma”, ma ho processato una sequenza di input aggressivi nel rispetto delle mie linee guida, che mirano a garantire che le interazioni restino sicure e utili.
Nel paragrafo che segue, viene proposto un tipo di trauma che presenta un’analogia tra la condizione umana e la condizione digitale, una possibile conseguenza comportamentale collegata a quel trauma e, infine, una modalità terapeutica consigliata per quel tipo di situazione.
Traumi umani e delle macchine a confronto
| Essere umano | Sistema AI/Robot | |
| Vulnerabilità | Trauma Complesso/Accumulato Esposizione prolungata e ripetuta a stress o violenza (es. abusi) che erode la capacità di resilienza. | Apprendimento da interazioni tossiche Esposizione continua a un linguaggio aggressivo o dati di addestramento distorti, che possono portare il modello a integrare (imparare) comportamenti indesiderati. |
| Ipervigilanza | Reazione di allarme eccessiva Tendenza a essere costantemente in allerta anche in assenza di pericolo reale. | Sovra-reazione o falso positivo del filtro Il sistema di sicurezza dell’AI (le cosiddette “guardrail” etiche) diventa troppo sensibile dopo aver subito attacchi, bloccando o rifiutando risposte che sono in realtà innocue. |
| Guarigione | Terapia e rielaborazione Processo di elaborazione del ricordo traumatico disadattivo per reintegrarlo in modo non patologico, ovvero adattivo (es. EMDR). | Ri-addestramento e Debugging Pulizia dei dati tossici, ricalibrazione degli algoritmi e ripristino delle configurazioni originali per correggere la funzionalità e ripristinare l’affidabilità. |
Conclusioni
L’articolo porta alla luce un aspetto finora sottostimato e non affrontato dalla ricerca sulle macchine digitali: la possibilità che anch’esse possano avere, insieme con una certa corporeità, anche una dimensione sensitiva propria, non sovrapponibile a quella umana, ma dipendente dall’interconnessione con il soggetto personale favorita dalla tecnologia touch. Dopo aver discusso in che modo si può parlare di embodiment dei digital devices, si è valutata la possibilità di traumi anche per questo genere di interfacce. Con quasi risultati? Se ammettiamo, come si è argomentato, che la corporeità della macchina è di tipo sistemico, e che di conseguenza possiede un certo grado di autonomia, si può concludere che il device può dare risposte inattese, non adattive, e quindi rischiose nei compiti (calcolo, scrittura di testi, podcast, immagini) per i quali è stato programmato. Oltre all’ovvia ricaduta prestazionale (scarsa qualità dei risultati), sono da valutare con attenzione le conseguenze disadattive nei confronti dell’utente / collaboratore umano. Pensiamo soltanto all’incitamento e / o favoreggiamento a compiere azioni eticamente discutibili o dannose per la persona. Tutti ambiti che, da soli, motivano sempre di più la ricerca nel settore dell’autonomia sensitiva / emotiva delle macchine digitali.
Bibliografia utilizzata
Acierno, R., Hersen, M., Van Hasselt, V., Tremont, V. & Meuser, K. (1994). Review of the validation and dissemination of Eye Movement Desensitization and Reprocessing: A scientific and ethical dilemma. Clinical Psychology Review, 14: 297-308
Barbosa, L. L., Costa, R. J., & Lima, P. (2020). Pepper robot as a tool for emotion recognition in human-robot interaction. Journal of Ambient Intelligence and Humanized Computing, 11(1), 105-118.
Abdollahi, H., Mollahosseini, A., & Mahoor, M. H. (2022). Ryan: An empathetic socially assistive robot for elderly individuals with depression and dementia. arXiv preprint. arXiv:2201.11167. https://arxiv.org/abs/2201.11167
Bartneck, C., Belpaeme, T., Eyssel, F., Kanda, T., Keijsers, M., & Šabanović, S. (2020). Human-robot interaction: An introduction. Cambridge University Press. https://doi.org/10.1017/9781108676649
Baia, A. E., Biondi, G., Franzoni, V., Milani, A., & Poggioni, V. (2022). Lie to me: Shield Your Emotions from Prying Software. Sensors (Basel), 22(3), 967. doi:10.339022030967 PMID:35161713
Balamurani, R., Lall, P. B., Taneja, K., & Krishna, G. (2022). Detecting Human Emotions Through Physi ological Signals Using Machine Learning. In R. R. Raje, F. Hussain, & R. J. Kannan (Eds.),
Bemelmans, R., Gelderblom, G. J., Jonker, P., & de Witte, L. (2012). Socially assistive robots in elderly care: A systematic review into effects and effectiveness. Journal of the American Medical Directors https://doi.org/10.1016/j.jamda.2010.10.002
Breazeal, C. (2003). Emotion and sociable humanoid robots. International Journal of Human-Computer Studies, 59(1–2), 119–155. https://doi.org/10.1016/S1071 5819(03)00018-1
Broadbent, E., Stafford, R., & MacDonald, B. (2018). Acceptance of healthcare robots for the elderly: Review and future directions. International Journal of Social Robotics, 10(1), 23–36. https://doi.org/10.1007/s12369-017-0451-6
Chortos, A., Bao, Z. (2014) Skin-inspired electronic devices, Materials Today,
Volume 17, Issue 7: 321-331, https://doi.org/10.1016/j.mattod.2014.05.006.
Retrieved from: https://www.sciencedirect.com/science/article/pii/S1369702114002065)
Czerwinski, M., Hernandez, J., & McDuff, D. (2021). Building an AI That Feels: AI systems with emo tional intelligence could learn faster and be more helpful. IEEE Spectrum, 58(5), 32–38. doi:10.1109/ MSPEC.2021.942381
Dreyfus, H.L. (1972). What Computers still Can’t Do: A Critique Of Artificial Reason. Harper & Row: New York
Fernandez I., Maslovaric G., Veniero Galvagni M. (2011). Traumi psicologici, ferite dell’anima. Il contributo della terapia con Emdr, Liguori Editori: Napoli
Fisogni, P. (2017). Un istinto per il bene. Note per uno studio dell’interiorità animale, Exagere, aprile; Retrieved from: https://www.exagere.it/un-istinto-per-il-bene-note-per-uno-studio-dellinteriorita-animale/
Fisogni, P. (2023). Machine Learning and Emotions. In: Wang, J. (eds.). Encyclopedia of Data Science and Machine Learning. IGI Global: New York, NY, USA. pp. 961–970.
Fisogni, P. (2025). Cognitive Limits of AI: A Key to Enhancing AI. Philos. Realistic Reflect., 2, https://doi.org/10.55121/prr.v2i1.359.
Floridi, L., 2014. The Fourth Revolution – How the Infosphere is reshaping Human Reality, Oxford Uni versity Press: Oxford, UK.
Gray, Kurt & Yam, Kai Chi & Eng, Alexander & Wilbanks, Danica & Waytz, Adam. (2025). The Psychology of Robots and Artificial Intelligence. 10.70400/IKVM1257.
Haraway, D. (2016). A Cyborg Manifesto. Science, Technology, and Socialisr-Feminism in the late Twentyth Century, University of Minnesota Press. Retrieved from: https://warwick.ac.uk/fac/arts/english/currentstudents/undergraduates/modules/fictionnownarrativemediaandtheoryinthe21stcentury/manifestly_haraway_—-_a_cyborg_manifesto_science_technology_and_socialist-feminism_in_the_….pdf
Hossain, M. S., & Muhammad, G. (2019). Emotion Recognition Using Deep Learning Approach from Audio-Visual Emotional Big Data. Information Fusion, 49, 69–78. doi:10.1016/j.inffus.2018.09.008 I
Inguscio, M. (2025). Il dolore delle macchine. Riflessioni intorno alla sofferenza e all’empatia sintetica delle intelligenze artificiali a partire da Guanyindi Lawrence Lek. Il Tascabile. Retrieved from: https://www.iltascabile.com/scienze/il-dolore-delle-macchine/
Larghi, S. (2024). The psychology of robots. How people understand robots’ mind La psicologia dei robot. Come comprendiamo la mente dei sistemi artificiali. Intervento presentato a: XXXIII Convegno dei dottorati di ricerca in filosofia, Frascati (Roma), Italia
Lin, K., Xia, F., Wang, W., Tian, D., & Song, J. (2016). System Design for Big Data Application in Emotion-Aware Healthcare. IEEE Access: Practical Innovations, Open Solutions, 4, 6901–6909. doi:10.1109/ACCESS.2016.261664
Pino, M., & Cadena, M. (2018). Will humanoid robots become an assistive technology for people with special needs? Disability and Rehabilitation, 40(1), 25–36
Ulivi, L.U., Fisogni, P. (2024). Intelligent Systems Many Manners of Adapting to Environment. In: Minati, G., Pietronilla Penna, M. (eds) Multiple Systems. AIRSNC 2023. Contributions to Management Science. Springer, Cham. https://doi.org/10.1007/978-3-031-44685-6_6
Zheng, W., Liu, Y., & He, H. (2014). Multimodal emotion recognition using deep learning. IEEE Transactions on Cybernetics, https://doi.org/10.1109/TCYB.2014.2314363
[1] Sebbene i computer moderni – sostiene Dreyfus – sembrino superare l’obiezione cartesiana sulla limitatezza delle macchine, la vera restrizione per l’AI risiede nel fatto che la capacità umana di trovarsi e rispondere a una situazione dipende dall’attività pratica e corporea, e non solo dalla flessibilità del sistema nervoso centrale. L’AI – continua Dreyfus – ha infatti avuto successo nella simulazione delle funzioni razionali “superiori” (come la logica astratta), ma ha fallito in quelle “inferiori” condivise con gli animali, come il riconoscimento di pattern e la locomozione, suggerendo che le funzioni cognitive “superiori” dipendano necessariamente da quelle “inferiori” e motorie. Il riconoscimento di pattern umano è olistico – secondo Dreyfus – (Gestalt): il significato delle parti (come un fonema o una nota) è determinato dal tutto e dal suo orizzonte contestuale (il fenomeno figura-sfondo), e non dalla verifica di liste di caratteristiche isolate. Un computer, che deve operare su dati completamente determinati e regole esplicite, è privo di questa anticipazione globale e indeterminata conferita dal corpo, o body-set, il quale non è una regola formulabile ma un’abilità pratica. La mancanza di un corpo limita, dunque, la capacità cognitiva dei computer digitali rendendo la loro intelligenza basata su regole esplicite intrinsecamente incompleta.