Chiediamolo all'Intelligenza Artificiale

Aperto da Luther Blissett, 14 Febbraio 2026, 21:10:02 PM

Discussione precedente - Discussione successiva

fabriba

Citazione di: iano il Oggi alle 12:51:37 PMCondivido quanto scrivi, e tu ben lo sai, per cui più che come una critica, lo percepisco come  un modo per svicolare dalla questione che ho posto, e che adesso provo a precisare meglio, che è quella di un processo da riferire più all'umanità che all'individuo, dei quali solo quest'ultimo può dirsi libero.

Se vogliamo fare un confronto mirato con l'IA dobbiamo farlo a parità di condizioni, per cui se non possiamo ridurre la macchina alla libertà dell'individuo, possiamo ridurla però alla mancanza di libertà dell'umanità, perchè ad essa è più difficile attribuire libertà decisionale.
Il risultato di un insieme di diversi liberi processi decisionali possiamo infatti dirlo libero?
Se non possiamo dirlo tale, possiamo allora paragonarlo a quello altrettanto non libero dell'IA.
Questo volevo far notare, che le libere decisioni individuali somigliano molto ai pesi casuali usati dall'intelligenza artificiale, secondo la spiegazione che Koba ci ha dato, per quel che ci ho capito.
Mi spingo oltre:
quali decisioni libere?!  :D

Questa l'ho già citata, ma mentre stavano facendo training alle automobili con autopilota è emersa una questione tipo problema-del-carrello:
  • una automobile si trova in una condizione per cui non può salvare entrambi i pedoni sulla strada, può solo salvarne uno: o il vecchio o il bimbo.
La nostra "libera" scelta di salvare il bimbo è la scelta ovvia e libera di chiunque sia nato nell'ultimo secolo in una parte molto precisa del mondo dove la natalità è bassa e l'aspettativa di vita alta. 
Non c'è nulla di naturale ne libero in quella scelta, infatti nei paesi dove ci sono bimbi in surplus e si muore giovani, la tendenza è a investire il bambino per lasciare vivere il raro e preziosissimo anziano.
Questo ridimensiona molto la mia personale illusione di avere un libero arbitrio sulla questione, e mi riporta alla triste consapevolezza che la mia scelta libera è al 99% il prodotto del mio ambiente.

Morale? sta cosa non lo so com'è finita, ma è una storia che ormai va per i 5-10 anni, e le macchine che si guidano da sole non hanno fatto i passi da gigante che pensavamo avrebbero fatto, forse anche perché è risultato difficile fare capire i nostri valori a una Alien-Intelligence dopo esserci accorti che non li capiamo bene neanche noi.
Condividi:

iano

Citazione di: fabriba il Oggi alle 15:33:57 PM
  • una automobile si trova in una condizione per cui non può salvare entrambi i pedoni sulla strada, può solo salvarne uno: o il vecchio o il bimbo.
La nostra "libera" scelta di salvare il bimbo è la scelta ovvia e libera di chiunque sia nato nell'ultimo secolo in una parte molto precisa del mondo dove la natalità è bassa e l'aspettativa di vita alta. 
Non c'è nulla di naturale ne libero in quella scelta, infatti nei paesi dove ci sono bimbi in surplus e si muore giovani, la tendenza è a investire il bambino per lasciare vivere il raro e preziosissimo anziano.
Questo ridimensiona molto la mia personale illusione di avere un libero arbitrio sulla questione, e mi riporta alla triste consapevolezza che la mia scelta libera è al 99% il prodotto del mio ambiente.
E' un dilemma a cui è difficile dare una soluzione, ma leggendo la tua, me ne è venuta in mente un altra.
Il vecchio potrebbe essere il nonno del bimbo, e per esso sarebbe minor dolore la propria morte.
Condividi:
Lo stesso uomo non può bagnarsi due volte nello stesso fiume.

iano

#122
Citazione di: fabriba il Oggi alle 15:33:57 PMMorale? sta cosa non lo so com'è finita, ma è una storia che ormai va per i 5-10 anni, e le macchine che si guidano da sole non hanno fatto i passi da gigante che pensavamo avrebbero fatto, forse anche perché è risultato difficile fare capire i nostri valori a una Alien-Intelligence dopo esserci accorti che non li capiamo bene neanche noi.
Il punto è proprio questo.
Chi dice che la macchina non è intelligente, evidentemente crede di sapere cosa sia l'intelligenza, però, oltre a ribadire che lui è intelligente e la macchina invece no, in effetti  non sa dirci altro.
Una macchina non cosciente, il confronto con la quale   ci obbliga  a prendere coscienza.
Condividi:
Lo stesso uomo non può bagnarsi due volte nello stesso fiume.

fabriba

#123
Citazione di: iano il Oggi alle 16:01:05 PMIl punto è proprio questo.
Chi dice che la macchina non è intelligente, evidentemente crede di sapere cosa sia l'intelligenza, però, oltre a ribadire che lui è intelligente e la macchina invece no, in effetti  non sa dirci altro.
Una macchina non cosciente, il confronto con la quale  ci obbliga  a prendere coscienza.
(enfasi mie)
Un punto alternativo che cercavo di fare era quello di:
Una macchina che distrugge il significato tradizionale di "coscienza", il confronto con la quale ci obbliga a riconsiderare seriamente la definizione stessa del termine (coscienza)
--- e non più -per citare @Lou fuori contesto- come una pippa mentale da filosofi che ci preclude il godimento della vita , ma come una necessità per comprendere davvero il mondo di oggi e ancor più quello di domani.

ovvero: chiederci se AI (un oggetto di ingegneria) sia cosciente o meno, ci costringe a definire la coscienza in modo ingegneristico (scientifico, deterministico, ripetibile), e i risultati di questo sforzo collettivo che siamo facendo* sono sotto gli occhi di tutti -risibili.

(* nel mondo, non in questo forum e basta... e comunque "stiamo": mi ci metto anche io tra i cooperanti)
Condividi:

Lou

Citazione di: fabriba il Oggi alle 15:11:01 PM...
-- in definitiva la questione che ponevo (in buona parte provocatoria) era: fino a che punto è ragionevole il brain-shaming che si fa nei confronti della AI e del suo produrre significato in assenza di comprensione del significante? (ovvero: di essere in grado di produrre senso senza comprendere)
Faccio un esempio: tra provare dolore e parlare del dolore c'è differenza, uno scarto.
L'AI può fornire risposte coerenti, valide o persino persuasive sul dolore. Ed è intelligente perché può anche stimare parametri di quanto dolore stai provando se ti bruci un dito, se programmata per quello. È un'intelligenza prettamente funzionale.

Ma qui sta la differenza fondamentale: non c'è esperienza vissuta, non c'è coscienza di questo famigerato dolore.
L'AI genera strutture coerenti che noi interpretiamo come senso, ma non le vive. Non che sia stupidissima artificiale, ma è una intelligenza che funziona con i suoi limiti. Nell'uomo, invece, il dolore è esperito ed è ció che costituisce significato: il senso emerge dall'atto stesso di viverlo. Alla AI questo manca.

Non ha, caspita, il "nodo di carne" del dolore, mi viene da dire, che pur se non dici, provi.
Condividi:
"La verità è brutta. Noi abbiamo l'arte per non perire a causa della verità." F. Nietzsche

Phil

Probabilmente si tratta di una scelta procedurale un po' drastica, se non proprio strategica (e ogni strategia è sempre "sintomatica"), ma più che stiracchiare un termine "classico" per fargli inglobare le novità che sembrano pertinenti e che tuttavia ne rendono ancora più amplia e problematica la definizione, si potrebbe anche lasciare il vecchio termine ai vecchi problemi di definizione. Detto più chiaramente: se definiamo "coscienza" come "capacità/attività/altro di un essere vivente di..." oppure "ciò che rende un essere vivente in grado di...", abbiamo risolto a priori il problema di includere o meno l'IA nella problematica della coscienza, essendo l'IA non un essere vivente (nuovo prerequisito ad hoc per entrare nella problematizzazione della coscienza). Lo stesso dicasi per la comprensione o la produzione di significato.
Ciò può sembrare un vile e goffo sotterfugio per non affrontare il problema, ma in realtà le "soluzioni neologistiche" di questo tipo consentono, a mio avviso, di affrontare questioni nuove con termini nuovi, senza ibridare quelli vecchi con il rischio di intorbidare ancora di più le acque per motivi di "eredità semantica". Ad esempio, facendo della coscienza "una questione da viventi", abbiamo carta bianca (e meno condizionamenti semantici o storici o culturali) per definire "__________"(parola a scelta) la "capacità/attività/altro di un'IA di...". Detto in altre parole, così facendo evitiamo gli "effetti collaterali semantici" di essere come sempre i soliti "antropocentrici" che leggono tutto come metafora o allegoria della dimensione umana, a volte scordandosi che solo di metafora e allegoria si tratta; che in fondo è il motivo per cui l'IA è stata chiamata in quel modo. Si tratterebbe di non rapportare il nuovo al già noto, ma di accettare la novità anche a livello linguistico; che è poi anche livello concettuale, che è poi quello che condiziona (non "determina") l'analisi e la comprensione di un fenomeno.
Questo invito al neologismo non è ovviamente finalizzato a sminuire le palesi affinità di funzionamento fra l'AI e la mente umana (anche la mente viene addestrata, ha la sua potenza di calcolo, ha le sue allucinazioni, i suoi algoritmi, i suoi bias, etc.), ma a evitare che tali affinità prendano il sopravvento e creino falsi problemi (ad esempio quello di giustificare come mai un IA abbia punteggi altissimi nei test di QI, ma poi risponda ad alcune domande in modo indegno per un ragazzino delle medie; può sembrare strano solo se confondiamo, appunto, la nostra intelligenza con la sua; se smettessimo di chiamare quest'ultima "intelligenza", non ci sarebbe alcuna "stranezza" o "incoerenza", ma solo una caratteristica dell'IA).
C'è indubbia affinità funzionale fra una telecamera e un occhio, ma una telecamera bagnata non sta piangendo, è bagnata e basta (oppure al massimo è un sistema di autopulizia, non di esternazione di "moti interiori dell'animo").
Condividi:

Discussioni simili (1)