La differenza fondamentale: quando l’“IA” è (soprattutto) agentività

C’è un passaggio, nel modo in cui parliamo di tecnologia, che spesso decide tutto: se la trattiamo come intelligenza, finiamo per aspettarci comprensione, intenzioni, empatia. Se la trattiamo come agentività, iniziamo a progettarla, integrarla e governarla per ciò che davvero fa: agire nel mondo, con efficacia, senza “capire” ciò che fa.

È la traiettoria che Luciano Floridi propone nel suo libro La differenza fondamentale. Artificial Agency: una nuova filosofia dell’intelligenza artificiale: spostare il baricentro da “macchine intelligenti” ad agenti artificiali. Nella descrizione dell’opera, la tesi è esplicita: l’IA “non pensa né comprende”, ma è un insieme di capacità computazionali in grado di agire con successo; e solo distinguendo “intelligenza” e “agency” evitiamo errori di valutazione e orientiamo l’innovazione in modo responsabile.

Per chi lavora nell’industria (e in particolare in contesti dove dati, processi, manuali, impianti e persone devono “tenere insieme” quotidianamente) questa non è una sfumatura filosofica. È una differenza operativa.

Da Manovich a Floridi: dalla “manipolazione” all’agentività

Quando Lev Manovich, nei primi anni 2000, descriveva il linguaggio dei nuovi media, metteva a fuoco un punto chiave: l’oggetto digitale non è fisso, è programmabile; è “soggetto a manipolazione algoritmica”.

In altre parole: nel digitale non guardiamo soltanto rappresentazioni, interveniamo su di esse. E quelle rappresentazioni, a loro volta, influenzano comportamenti, decisioni, sistemi.

Floridi riprende e rilancia quell’intuizione dentro l’epoca dell’IA: oggi non abbiamo solo “oggetti” manipolabili, ma agenti che interagiscono con l’ambiente (digitale e fisico) in modo sempre più interattivo, autonomo e adattivo.

Tre criteri per riconoscere l’agentività (e progettarla meglio)

Floridi analizza le forme di agency attraverso tre criteri, che per un’azienda possono diventare una griglia molto concreta:

  • Interattività: capacità di entrare in una relazione di influenza biunivoca con l’ambiente (ricevo segnali, produco effetti).
  • Autonomia: capacità di cambiare stato e prendere iniziative entro vincoli dati, senza una causa esterna diretta per ogni singola azione.
  • Adattabilità: capacità di modificare il comportamento sulla base degli input per mantenere o migliorare l’efficacia rispetto a compiti/obiettivi.

Questo schema ha un valore pratico: ci obbliga a chiederci dove vogliamo collocare l’agente, quanto margine d’azione gli concediamo, a quali feedback loop lo abilitiamo.

E soprattutto ci ricorda che non esiste “una” agentività migliore in assoluto. Esistono agency più adatte a un contesto, a un rischio, a un obiettivo.

“IA” come etichetta ingannevole: il divorzio tra agire e capire

La tesi forte del libro è che ciò che chiamiamo “intelligenza artificiale” è essenzialmente un equivoco linguistico.

Floridi parla di un “divorzio”: possiamo ottenere azione efficace rispetto a un obiettivo, senza dover attribuire al sistema un’intelligenza paragonabile alla nostra.

Questo spostamento non “sminuisce” l’IA. La rende utilizzabile, perché quando smettiamo di chiederle di essere intelligente, iniziamo a chiederle cose di maggiore impatto sulla vita reale:

  • Quale compito deve svolgere?
  • Con quali dati?
  • Con quali vincoli?
  • Con quale responsabilità e tracciabilità?
  • Con quale controllo umano?
  • Con quale misurazione di valore (efficienza, efficacia, nuovi servizi)?

Output simili, storie diverse: perché nell’industria conta il processo

C’è un altro passaggio che, letto con gli occhiali dell’industria, diventa potentissimo: la differenza tra risultato e processo.

Se guardiamo solo l’output, l’agire umano e quello artificiale possono sembrare indistinguibili. A volte l’output dell’agente artificiale può persino “superare” quello umano in velocità, copertura, regolarità.

Ma per capire che cosa stiamo davvero mettendo in produzione, dobbiamo rimettere al centro:

  • input e fonti (da dove arrivano i dati? sono affidabili? aggiornati?)
  • contesto (in quale situazione operativa l’agente decide/consiglia?)
  • tracciabilità (posso ricostruire perché ha prodotto quell’esito?)
  • criteri di valore (stiamo ottimizzando il KPI giusto o un surrogato?)

Nel mondo industriale questa domanda è quotidiana: un suggerimento di riordino, una diagnosi su un guasto, una risposta tecnica a un manutentore, una classificazione di un ricambio… non valgono solo per cosa dicono, ma per come ci arrivano.

Eclissi dell’analogico e “cultura del proxy”: il rischio dei surrogati

Floridi usa un concetto che dovremmo tenere ben presente quando parliamo di “digitale”: la cultura del proxy. Il rischio è scambiare il modello per la realtà, il cruscotto per l’impianto, l’indicatore per il fenomeno.

Nell’industria lo vediamo spesso:

  • si ottimizza il tempo a sistema, non il tempo reale di fermo macchina;
  • si “puliscono” i dati invece di correggere la causa che li rende sporchi;
  • si fa governance del documento, ma non del processo che il documento dovrebbe servire.

La buona notizia è che questa eclissi non è inevitabile. I modelli digitali possono essere mediazioni epistemiche arricchenti, a patto di progettare in modo virtuoso la relazione tra digitale e analogico: sensori, procedure, feedback dagli operatori, validazione sul campo, gestione delle eccezioni.

Implicazioni pratiche per chi fa industria

Se accettiamo l’idea dell’IA come agency artificiale, cambiano le priorità:

  1. Progettare agenti per compiti, non per “somigliare all’umano” Un assistente tecnico non deve “fare conversazione”: deve ridurre errori, tempi di ricerca, ambiguità, passaggi inutili. L’empatia (quando serve) è un requisito di interfaccia; non una prova di presunta intelligenza.
  2. Curare la catena che porta all’output Dati, aggiornamenti, versioning, fonti, autorizzazioni, log, metriche. È qui che si costruisce affidabilità. È qui che si decide se l’agente diventa un acceleratore o un moltiplicatore di confusione.
  3. Tenere insieme modelli e sistemi reali L’agente deve “stare” dentro processi veri: assistenza, manutenzione, qualità, acquisti, preventivazione, formazione. Con un ciclo di miglioramento continuo basato su riscontri reali, non su impressioni.

Perché questa “differenza” è utile anche a chi deve decidere

C’è un equivoco storico anche nella nascita del termine “artificial intelligence”, formalizzato nel contesto del workshop di Dartmouth del 1956. Da allora, la parola intelligenza ha portato con sé un immaginario che, a causa di una serie di prestiti concettuali incrociati fra scienze computazionali e scienze cognitive, neuroscienze, ha portato ad antopomorfizzare i computer e a computerizzare le menti.

Ma per un’azienda l’immaginario è funzionale alla definizione di una grammatica decisionale.

E la categoria dell’agentività, oggi, è quella grammatica: ti aiuta a innovare non inseguendo promesse vaghe, ma costruendo sistemi che fanno cose utili, misurabili e governabili – con le persone, non “al posto” delle persone.

In KEA, quando progettiamo assistenti e sistemi basati su modelli linguistici, questo è il percorso che sembra funzionare al meglio: espandere capacità un passo alla volta, monitorare, raccogliere feedback, tenere trasparente il legame tra modello digitale e realtà operativa, definire responsabilità e controlli. Perché l’agentività artificiale è potente proprio quando smettiamo di travestirla da intelligenza – e iniziamo a trattarla come un processo critico dell’impresa.

Lascia un commento