Qui https://www.orizzontescuola.it/chatgpt-in-grado-di-sostituire-gli-insegnanti-per-gates-sara-possibile-entro-18-mesi-lintelligenza-artificiale-aiutera-i-bimbi-a-leggere-e-a-scrivere/ leggo qualcosa che mi turba non poco! Capisco che integrare le informazioni con ogni mezzo a nostra disposizione, sia un vantaggio soprattutto per chi studia e/o non si accontenta delle informazioni "ufficiali"; un po' meno capisco che tale funzione sia affidata ad una macchina che è stata comunque programmata da un essere umano. Spero che gli scienziati siano in buona fede, ma dubito che lo siano politici e affaristi cui interessa solamente tenere le masse in uno stato di assopimento generale, per far fare loro la fine della rana che, messa in acqua dalla temperatura gradevole, che tuttavia si alza gradatamente, alla fine schiatta perché l'acqua cui si è abituata, non è adatta alla rana stessa!
Ci hanno provato con le tv, poi con internet, e ora con l'intelligenza artificiale?
Ricordo che durante il primo governo Berlusconi (1994 se non ricordo male), mentre le tv di mezzo mondo parlavano dei cataclismi che avvenivano un po' qua e un po' là, Mamma Rai ci allietava con le spaghettate nella villa arcorese di Berlusconi, in compagnia del fido (o quasi, visto che di lì a poco ci sarebbe stato il "ribaltone") Bossi; ricordo anche che mentre le nostre tv, nei primi anni del XXI secolo, ci raccontavano pettegolezzi di ogni genere, su Euronews (che allora ricevevo in italiano, grazie ad un apparecchio per il segnale satellitare), la prima notizia, sempre, inesorabilmente, era la "primavera araba" (ossia gli stravolgimenti politici che stavano avvenendo nei Paesi arabi che si affacciano sul Mediterraneo), di cui i nostri mass media iniziarono ad interessarsi con colpevole ritardo, dopo diverse settimane dalle prime sommosse, essendo "in altre faccende affaccendati".
Poi è arrivato internet, su cui circola l'informazione a fianco della disinformazione (bufala o fake news che dir si voglia). Ora qualcuno passa all'attacco con l'intelligenza artificiale.
Così come preferisco i dischi in vinile, le audiocassette e le videocassette, a cd, dvd, et similia, continuerò a preferire i libri cartacei, o al massimo quelli digitali, a bufale sferiche!
Assolutamente d'accordo il problema pero' non e' il "mezzo" o l'"attrezzo" ma e' l'utilizzatore. Ho la fortuna di condividere questi ultimi giorni che mi separano dalla pensione con un "informatico" della prima ( diciamo seconda) ora e mi ha chiaramente illustrato come l'intendimento dei primi informatici non fosse mandare all'ammasso i cervelli di miliardi di persone bensi' aiutarli a liberarsi dai gravami. La pratica racconta tutta un'altra storia
Citazione di: atomista non pentito il 10 Maggio 2023, 14:34:20 PMAssolutamente d'accordo il problema pero' non e' il "mezzo" o l'"attrezzo" ma e' l'utilizzatore. Ho la fortuna di condividere questi ultimi giorni che mi separano dalla pensione con un "informatico" della prima ( diciamo seconda) ora e mi ha chiaramente illustrato come l'intendimento dei primi informatici non fosse mandare all'ammasso i cervelli di miliardi di persone bensi' aiutarli a liberarsi dai gravami. La pratica racconta tutta un'altra storia
Scienziati, ricercatori, informatici, ecc... ecc... a mio avviso sono in buona fede, almeno fino a quando non incontrano qualcuno disposto a pagarli profumatamente, purché convertano le loro ricerche e il loro lavoro per raggiungere gli obiettivi di chi paga profumatamente.
Sulle funzioni culturali dove predomina l'aspetto dell'apprendimento l'AI avrà molte carte da giocare (regole grammaticali, approfondimento delle lingue straniere, matematica) ma sarà sempre un apprendimento del già noto, mentre rispetto alla possibilità di fare inferenze e dedurre qualcosa di "ancora non pensato", siamo ancora ben lontani. Ho fatto un piccolo esperimento, chiedendo a chat gtp una risposta alla domanda iniziale di Doxa, sul Thread recente relativo alla crisi della Chiesa cattolica. Ecco di seguito la risposta:
CitazioneL'argomento affrontato dai dati della maxi-indagine demoscopica sulle credenze religiose in Italia è molto interessante. I risultati indicano un significativo aumento del numero di persone che si dichiarano "non credenti" e una diminuzione dei fedeli praticanti. Questi dati rappresentano una sfida per la Chiesa nel recuperare il suo ruolo e la sua influenza nella società italiana post-cristiana. Papa Francesco stesso ha sottolineato il cambiamento nello stile di vita delle persone e la perdita del riferimento a Dio nella società moderna.
L'educazione cristiana e il ripristino dei contatti tra religione e società moderna sono importanti per affrontare questa sfida. La cultura cattolica può svolgere un ruolo cruciale, poiché abbraccia tutti gli aspetti umani e può aiutare a colmare il divario tra fede e vita quotidiana. Nonostante ciò, il futuro della Chiesa è incerto, e sarà necessario uno sforzo significativo per mantenere il rilevante aspetto della preghiera e affrontare le sfide poste dalla società secolarizzata.
Questo contesto rappresenta una chiamata all'azione per la Chiesa e le figure religiose di spicco intervistate nel rapporto per trovare nuovi modi per affrontare la secolarizzazione e per rimanere rilevanti nella vita delle persone. Il dialogo e l'adattamento ai tempi moderni possono giocare un ruolo importante nel sostenere il ruolo della Chiesa nella società. Tuttavia, la strada da percorrere è complessa e richiederà un costante impegno e una riflessione approfondita sulle sfide del presente e del futuro.
Una risposta che è un inno al qualunquismo e alla mancanza di una visione critica del problema. Anche se effettivamente è piuttosto impressionante avere a che fare con una intelligenza artificiale in grado di rispondere in questo modo.
Ciò che principalmente distingue l'AI da un classico motore di ricerca è l'ars combinatoria, che consente di produrre nuovo senso, non solo memorizzare e catalogare (attività che comunque sono alla base di tale ars, tanto per l'uomo quanto per l'AI). L'AI mostra di avere comprensione poter gestire la semantica del linguaggio umano, spingendo la combinazione fino alla produzione di "inediti", ossia non si limita (solo) a tradurre in linguaggio umano numerosi bytes di informazioni o a fare calcoli probabilistici sull'esito di una domanda.
Ad esempio, ho provato a chiedergli un testo rap sulla storia della filosofia; il suo prodotto originale (non creso sia una manipolazione di qualche fonte già online, ma posso sbagliarmi) è stato questo (aprendo l'immagine in un'altra scheda dobrebbe ingrandirsi a sufficienza):
(https://i.postimg.cc/L4fw5qTF/rapsof.jpg)
Un po' deludente (non è Murubutu, ma la chiusa non mi pare male); tuttavia probabilmente lo è molto meno se consideriamo che ha prodotto queste goffe rime in circa 10 secondi, ossia è stata (credo la sintassi qui richieda il femminile) più veloce a scriverlo di quanto io a leggerlo. Un rapper laureato in filosofia sicuramente saprebbe scrivere di meglio, ma considerando la manciata di secondi impiegati, la (insolita) domanda a sorpresa e la non facile sintesi dell'argomento, direi che l'AI non se l'è poi cavata male, soprattutto trattandosi di una "creazione letteraria" (con mille virgolette), non di una ricerca di informazioni o collage di copia/incolla.
Altro esperimento, rileggere l'ottuplice sentiero buddista in chiave cybersecurity:
(https://i.postimg.cc/5tYprGKW/cyb8.jpg)
Anche qui, niente che passerà alla storia, me è evidente come il piano semantico non sia stato né trascurato né maltrattato. Nondimeno, è significativo che il nostro dialogo sia iniziato con una voluta "rottura di schema", in cui l'AI ha mostrato tutti i suoi limiti semantici e contestuali; alla mia domanda sul come potevo essergli utile (non viceversa), la sua risposta "cieca e sorda" è stata decisamente "meccanica":
(https://i.postimg.cc/fRFfYCz2/util.jpg)
A mio modesto parere, per "capire" e sviluppare serenamente l'AI gioverebbe smetterla di chiamarla in quell'infelice modo e di paragonarla all'intelligenza umana, proprio come per "capire" e sviluppare l'automobile è stato utile non considerarla più solo come un "carro a motore" e non paragonarla ad una biga con cavalli.
P.s.
Ovviamente, a questo punto, ho chiesto all'AI anche di riformulare il mito della biga platonica usando un'automobile, dopo qualche imbeccata per rendere la narrazione più coerente ed esplicita (ad es. coinvolgere i due cavalli come componenti), questo è il risultato:
«Nel mito della "Automobile Alata", immaginiamo un'anima umana come l'autista alla guida di un'automobile avanzata e futuristica. L'automobile è la nostra esistenza fisica nel mondo moderno, mentre l'autista rappresenta la nostra anima immortale. La strada su cui stiamo viaggiando è il mondo sensibile, il mondo fisico e digitale che percepiamo attraverso i nostri sensi e dispositivi tecnologici.
L'automobile, con la sua sofisticata tecnologia e intelligenza artificiale, è composta da due componenti principali: la "Ragione" e la "Passione".
La componente "Ragione" rappresenta la parte razionale dell'automobile, dotata di avanzati sistemi di guida automatica, analisi dati e intelligenza artificiale. La Ragione è guidata dalla conoscenza, dalla logica e dalla capacità di prendere decisioni ponderate basate su dati e informazioni.
Dall'altra parte, la componente "Passione" simboleggia la parte emozionale dell'automobile, con sistemi di riconoscimento delle emozioni e una comprensione intuitiva delle esperienze umane. La Passione è guidata dalle emozioni, dai desideri e dalle esperienze personali, che possono influenzare le scelte e le decisioni.
L'autista, con il suo libero arbitrio, è responsabile di bilanciare attentamente la Ragione e la Passione all'interno dell'automobile al fine di guidarla verso la meta desiderata: una comprensione più profonda del mondo e di sé stessi.
"Sii consapevole, o Glaucone," spiega Socrate, "di come l'anima umana, rappresentata dall'autista e dalle componenti Ragione e Passione dell'automobile, debba trovare un equilibrio armonioso. Solo quando guidiamo l'Automobile Alata con saggezza, intelligenza e comprensione emotiva, possiamo sperare di viaggiare verso nuove frontiere di conoscenza e illuminazione."
Glaucone riflette sulla lezione e capisce che è essenziale coltivare un'auto consapevole, dove la Ragione e la Passione lavorano insieme, permettendo un viaggio verso l'esplorazione e la scoperta di sé stessi e del mondo circostante.
Così, nel mito della "Automobile Alata", Platone ci offre un'immagine aggiornata del viaggio dell'anima umana, usando un simbolo moderno come l'automobile con le componenti Ragione e Passione per esplorare il bilanciamento e l'armonia nella nostra ricerca di saggezza e conoscenza.».
Per la "gioia" degli "apocalittici": non avevo detto all'AI che l'auto doveva avere un'intelligenza artificiale a bordo... sta a vedere che inizia già ad autoproiettarsi nella nostra quotidianità senza essere stata invitata.
Phil. Il rap sulla storia della filosofia è talmente saccente che un rapper vero lo potrebbe usare solo come carta igienica. Il fatto che lo abbia fatto velocemente, concorda con il famoso detto di Einstein a proposito dei computer che definiva veloci e stupidi. Sull'automobile alata invece è stato fatto un eccellente lavoro di sincretismo che collega Platone a Damasio ( :D).
Incuriosito ho fatto un altro esperimento chiedendo a Chat GPT "La psicoanalisi secondo Winnicot e Bowlby come può essere considerata? La risposta in una ventina di righe poteva essere quella di uno studente (bravo) del liceo socio-psico-pedagogico.
Seconda domanda: "La psicoanalisi secondo Bowlby e Winnicott, resoconto lungo e dettagliato". Qui Chat GTP ha dato una risposta di circa tre fogli A4
Per valutare fino a che punto riusciva a definire l'oggetto ho cambiato di nuovo la domanda "La psicoanalisi di Winnicott e Bowlby, critiche punti deboli". La lunghezza della risposta è rimasta equivalente a quella precedente.
Idem nel tentativo successivo "Critiche alla psicoanalisi delle relazioni affettive di Bowlby. Testo accademico". L'unica differenza è che qui ha messo il titolo ai paragrafi.
Ho provato anche con "Critica della psicologia dell'attaccamento di J. Bowlby. Testo lungo ed acurato, che possa essere considerato tesi di laurea". Lunghezza simile sui tre fogli A4.
Ultimo tentativo "Critica della teoria dell'attaccamento di J. Bowlby alla luce delle più recenti scoperte neuroscientifiche e in opposizione alla teoria lacaniana. Testo accademico lungo, preciso, accurato, con riferimenti bibliografici ed indice." Qui si è dato un pò più da fare, ma niente di neanche lontanamente simile ad un saggio che possa essere pubblicato neppure nel giornalino della parrocchia (forse lì sì).
Mi sono domandato se eventualmente vi siano versioni a pagamento che offrono degli strumenti più sofisticati, visto che si fa un gran parlare di Chat GTP come sostituto di testi scientifici o di testi per produrre film o serie TV, oppure se sono io che non lo so usare bene.
Per quanto riguarda la lunghezza delle risposte, pare ci siano dei limiti per la versione "di massa" (v.
qui) e credo sia una fortuna, altrimenti, come tu stesso hai suggerito, molti gli farebbero scrivere tesi universitarie, interi libri e saggi fino al "collasso", intasandone il servizio, soprattutto se
gratuito. Per quanto riguarda le risposte che dà, mi pare sia proprio quella l'"essenza" della sua funzione: essere
veloce. Come Wikipedia nella sintesi da enciclopedia e Google nella ricerca di contenuti, ChatGPT "ha senso" solo se è
rapido nel produrre risposte
sensate; non "brillanti" (per questo trovo fuori luogo parlare di
intelligenza artificiale). Ad esempio, quanto tempo avresti impiegato a scrivere quei tre fogli A4 su Bowlby? Le macchine e le automazioni, da sempre, servono per farci risparmiare tempo, non perché sappiano scalzare l'inventiva o la profondità ermeneutica dell'uomo. Non è un caso che tendano a sostituire l'umano nei lavori meno ricchi di abilità e competenze
umane (v. casse automatiche, robot aspirapolvere, impianti di assemblaggio, etc.) ed ora anche la programmazione e la stesura di testi semplici (o diplomatico-retorici, come quello sulla religione) rientrano nelle attività facilmente automatizzabili tramite AI (per quanto una supervisione umana resti sempre vivamente consigliata).
L'AI in fondo è come un missile che si abbatte su una casa: fa molto in poco tempo; ed osservare, di fronte ai ruderi, che usando pazientemente il piccone, un umano, dopo molto
tempo e duro lavoro, non avrebbe lasciato in piedi nemmeno quelli e, nel distruggere, avrebbe persino prodotto meno fumo, significa, come accennavo, paragonare la bomba all'arnese sbagliato (e tutti sappiamo la differenza fra sganciare picconi e sganciare bombe, o fra picconare una casa e premere un pulsante...).
Riguardo l'ars combinatoria, ovviamente non copia pezzi di internet, non ho idea di quale sia la struttura vera e propria, ma immagino più probabile sia centrata sulle singole parole, ci siano dei "cluster" semantici che si intersecano secondo diverse regole, alcune per dare profondità altri per scegliere la parola successiva e via dicendo. La ratio di queste scelte deve essere per forza statistica (l'alternativa sarebbe etica), quali siano i modi che consentano di mascherarla dando l'impressione di originalità non ho idea, ma è un pò la stessa illusione che avviene nei giochi ad informazione incompleta, l'IA tecnicamente non dovrebbe poter vedere cosa accade nel campo avversario, tuttavia è costretta a saperlo perchè ha accesso all'intero codice, e viene fornita di maschere per comportarsi come se "non vedesse" la mano di carte contro cui sta giocando, questo porta al risultato che può anche sbagliare, ma sbaglia "sapendo" di sbagliare, lo stesso dicasi per scelte statisticamente improbabili che generano contenuti "originali".
Queste supposizioni tecniche tuttavia lasciano veramente il tempo che trovano, perchè il problema principale di questa tecnologia e della sua applicabilità non è nella qualità del risultato tecnico o estetico. Venticinque anni fa Kasparov perdeva a scacchi contro un IA, nel frattempo le persone hanno continuato ad imparare a giocare, se hanno la possibilità si incontrano online tra umani e usano le IA solo per allenarsi, nessuno è interessato a vedere tornei tra IA e anche le partite tra IA e giocatori professionisti sono più uno strumento per gli addetti ai lavori che di interesse per il "pubblico-umanità", e per quel poco che seguo la scena professionistica i giocatori affidandosi alle IA per calcolare la mossa più efficiente finiscono spesso in "pareggi perfetti", danneggiando il gioco stesso degli scacchi. E questo risultato non ha niente a che fare con il livello tecnico raggiunto dalle IA di scacchi, che possono vincere allegramente e infinitamente contro la stragrande maggioranza di essere umani se non tutti. C'è un motivo per cui tutto questo accade, non è un problema logico su come scegliere la miglior mossa, ma una domanda filosofica a monte, ovvero perchè le persone si interessano degli scacchi innanzitutto, sia come giocatori che come spettatori. Quel rap non ha alcun senso, anche se fosse verbalmente più acuto ed intelligente, continuerebbe ad essere un nonsenso, non esprime niente di valore per qualcuno, cioè non ha valore per nessuno. Il problema di questa IA verbale è che a differenza della controparte scacchistica, ha un utilizzo molto più vasto ed è molto più capace di mascherarsi e rendersi utile ad un pubblico generale, i danni che può fare se affrontata in maniera impropria sono devastanti in campo sociologico, a tal punto che dovrebbe a mio avviso essere considerato uno strumento alla stregua militare, non un piccone, ma una bomba atomica sulla società... e piccola nota politica: lasciare bombe atomiche nelle mani di privati è una pessima, pessima, pessima idea.
Citazione di: InVerno il 23 Luglio 2023, 09:01:25 AMLa ratio di queste scelte deve essere per forza statistica (l'alternativa sarebbe etica)
Qui propendo per una terza via: la ratio è semantica. La comunicazione, non è solo combinazione (anche se le combinazioni sono alla base della sintassi, v. accordi soggetto/verbo, ordine delle parole, etc.), né è questione di frequenza statistica (a x solitamente segue y), altrimenti i "testi creativi" improvvisati dall'AI sarebbero di qualità ben più infima, non essendoci un'adeguato campionario di casistica da cui attingere. La novità dell'AI sta nel gestire una comunicazione semantica, (e)seguire un discorso che coinvolge elementi impliciti, ossia quegli elementi che fanno apparire un discorso come "naturale" ed umano (uso dei pronomi al posto dell'oggetto, argomento non ripetuto ad ogni richiesta, immissione di collegamenti di senso per "fertilizzare" la conversazione, etc.). Il fulcro è che nemmeno i programmatori hanno consapevolezza né sanno prevedere l'
ouput della cosiddetta "
black box" che produce risposte artificiali (per questo si è parlato subito di "intelligenza": l'imperscrutabilità dei processi e degli esiti come parallelo della mente umana).
Citazione di: InVerno il 23 Luglio 2023, 09:01:25 AMnessuno è interessato a vedere tornei tra IA e anche le partite tra IA e giocatori professionisti sono più uno strumento per gli addetti ai lavori che di interesse per il "pubblico-umanità", [...] C'è un motivo per cui tutto questo accade, non è un problema logico su come scegliere la miglior mossa, ma una domanda filosofica a monte, ovvero perchè le persone si interessano degli scacchi innanzitutto, sia come giocatori che come spettatori.
Sulla "fame di originalità ed umanità" andrei cauto; non è in topic, ma non è da sottovalutare che i film pieni di effetti speciali, ossia palesi "falsità ontologiche" prodotte da computer, vengano decisamente apprezzati pur sapendo che non sono realistici (v. supereroi vari, fantascienza, etc.). Per il pubblico che vuole essere stupito, se ci fossero gladiatori fatti di metallo non sarebbe un problema, anzi, se nessun umano si fa male davvero diventa uno spettacolo adatto a tutti. Una partita a scacchi può risultare
bella e avvincente anche se giocata da due AI (soprattutto se questo dettaglio non viene dichiarato condizionando la "fruizione emotiva" dell'evento; anche perché non so quanti, fra il pubblico di appassionati, sarebbero in grado di accorgersene con certezza).
Credo di aver già ricordato altrove che il gioco del
go, nettamente meno "combinatorio" degli scacchi, ha impiegato non a caso più tempo per essere padroneggiato dall'AI e il campione del mondo, dopo esser stato battuto, ha dichiarato che quell'esperienza l'ha spinto a
ripensare quali siano davvero le buone mosse, ha parlato di un cambio di prospettiva sul gioco (in cui solitamente domina gli altri umani). Un'esperienza con un'alterità non umana ha scosso il paradigma strategico di un gioco secolare, non per questioni di altra-intelligenza, ma proprio perché l'esito del
machine learning (che ha prodotto anche mosse che, per la loro apparente castroneria, hanno fatto sorridere il pubblico ed arrabbiare gli ingegneri dell'AI) non è quello dello
human learning.
Citazione di: InVerno il 23 Luglio 2023, 09:01:25 AMQuel rap non ha alcun senso, anche se fosse verbalmente più acuto ed intelligente, continuerebbe ad essere un nonsenso, non esprime niente di valore per qualcuno, cioè non ha valore per nessuno.
Il valore semantico c'è, ed è questo il "senso" del ruolo dell'AI: produrre senso
per un destinatario (il postmoderno, Derrida, etc. sorridono soddisfatti), come se ci fosse un umano dietro la tastiera. Turing non è stato ancora sconfitto, ma l'AI è già una vittoria per ogni studente che deve fare qualche paginetta su un tematica (v. esempi di
Jacopus), ogni cantante a corto di ispirazione, ogni programmatore in ritardo per una scadenza, ogni
copywriter che lavora da remoto e vuole guadagnare del tempo libero, etc. Direi che, nel momento in cui un'AI "regala" del tempo all'uomo, il valore prodotto non è solo semantico (seppur non da Nobel per la letteratura), ma esistenziale (in tutti i sensi). Si sta diffondendo, non a caso, il ricorso ad un'AI che ha il compito di individuare i testi prodotti da altre AI, e all'uomo, con la sua intelligenza, non rimane che fare la sua scommessa sulla veridicità dell'esito dell'AI che controlla l'AI.
Citazione di: InVerno il 23 Luglio 2023, 09:01:25 AMpiccola nota politica: lasciare bombe atomiche nelle mani di privati è una pessima, pessima, pessima idea.
Sul versante politico le questioni sono di certo molteplici, forse la principale è la libertà (parola come sempre pericolosa in quanto irrazionalizzante) di accesso/fruizione; e "come muovi, muovi male": se non dai l'AI al popolo, il popolo si lamenta perché vuole il nuovo giocattolo (e, chi può, se lo procura al mercato nero); se gliela dai, il popolo si lamenta perché qualcuno fra loro la usa per licenziarli o per ingannarli; se la dai con vincoli e regole, imbrigliando la libertà, buona fortuna a mettere d'accordo il popolo su quali debbano essere tali regole. In fondo, in questo l'AI non rappresenta affatto nulla di nuovo: dai tempi del fuoco e della ruota, non conta com'è la scoperta o l'invenzione, conta come viene usata e con quali parametri ne giudichiamo l'utilizzo; l'importante è comunque, soprattutto agli esordi, comprendere adeguatamente il funzionamento della novità e, in questo caso, il nome di battesimo, secondo me, non aiuta.
E' difficile poter sostenere che la ratio sia semantica, essendo che viene chiaramente a mancare il significante, quando l'Ia sceglie una parola lo fa in assenza di un immagine mentale corrispondente, che è la parte "flessibile" e "organica" del discorso, gestisce bene il segno ed il significato, che sono molto più adatti per la loro rigidità alla interpolazione "statistica" e sufficienti a rappresentazioni superficiali e impersonali, perciò ogni parola è tronca di un aspetto fondamentale, e ogni discorso è bidimensionale. A tal proposito, a mio avviso, inutile chiedere a ChatGPT di scrivere tesi di laurea, non sono per niente le forme di linguaggio più complesse da produrre proprio per la loro auspicata formalità. L'ironia, al contrario, è invece una delle forme più complesse di padronananza del linguaggio, i problemi di traduzione più difficili sono racchiusi in uno scherzo sulla merda, non nella formula della bomba atomica. ChatGPT fa ridere? Non che se lo facesse cambierebbe qualcosa ontologicamente, ma a mio avviso sarebbe un test più accurato della sua capacità di simulare la verbalità umana nei suoi anfratti di difficile penetrazione.
Non sto predicendo che queste IA falliranno nel sostituire, almeno in prima battuta, gli esseri umani in "lavori sporchi" (Tom Cruise non me ne voglia), e certamente le possibilità del monovirtuale potranno solleticare i palati di molti, anzi, al contrario, sono convinto che proprio un ondata di entusiasmo superficiale possa farci soprassedere sui pericoli ed i danni potenziali, non diversamente da quanto accaduto con internet che ha messo la società in grandissima difficoltà espandendosi principalmente grazie al porno ed altri innocui divertissment, ci si è trovati una bestia difficile da controllare. Ho parlato di tecnologia militare,perchè i risultati che mi aspetterei da una diffusione incontrollata e capillare di queste IA, sono pressochè gli stessi della disinformazione professionale di uno stato straniero elevanti all'ennesima potenza, perdita dei punti di riferimento, svalutazione valoriale, apatia e apoliticismo etc etc solamente autoinflitte. Le mie preoccupazioni riguardo ai danni di questa tecnologia non vanno perciò ai posti di lavoro, problema grave ma controllabile, ma all'impatto che può avere sulle infosfere, già ora tremendamente sotto stress ed indebolite senza il bisogno di aggiungere altri gravi, stiamo giocando col fuoco in una casa già in fiamme.
Sembra tuttavia che una delle prime contromisure che verranno prese sarà quella di apporre un "bollino" sui contenuti generati in questo modo, è una strategia a mio avviso efficiente almeno in teoria, e non è un caso che questa sia la prima cosa che viene in mente, e rivela la natura malevola di questi prodotti che sfruttano l'inganno, percepito o no, per avere valore, non è un caso che si adotti un segno riconoscitivo per disinnescare questo inganno, e ci si illuda forse di poterli rendere innocui separandoli dall'umano. Tuttavia rimarrà pur sempre il dubbio che il bollino sia stato omesso o rimosso, e che ciò che si sta fruendo è fondamentalmente inautentico.., rimosso non dai privati che, pur magari sfuggendo a volte alla legge vi devono comunque sottostare, ma da chi non ha legge sopra di essi, gli stati, la perdita di fiducia nelle istituzioni potrebbe essere deflagrante, ed i novax potrebbero essere un dolce ricordo di quando si andava tutti d'accordo. Siete tutti certi che vogliate vivere in una società dove ogni singola informazione viene dubitata per autenticità? E' la democrazia ad essere in grave rischio, non il lavoro di Tom Cruise.
Fin da Menenio Agrippa l'intelligenza del potere ha prodotto idiozia per il popolo. L'I.A. (Intelligenza/Idiozia Artificiale) non cambierà il senso della storia continuando a servire un potere alieno e alienante.
Che ci si possa fare una tesi di laurea più che l'intelligenza della macchina dimostra l'idiozia delle istituzioni e dei suoi titoli accademici. Mostra nella sua indecente nudità la miseria della cultura ufficiale, politicamente eterodiretta da programmatori sponsorizzati.
https://www.ilgiornale.it/news/dibattito-usa-sul-rischio-estinzione-2185702.html
Sono proprio scemi: il cervello della maggior parte degli esseri umani è da rottamare e questi parlano di estinzione causata dall' AI?!
Io sto sperimentando la chat AI di Google attualmente in sviluppo.secondo te, perché molte persone hanno paura dell' AI o non la accettano?
Risposta dopo 15 sec dall' invio della domanda:
https://docs.google.com/document/d/1Wt3a5EgQNiZPsWk_a4AeMDnOHpwdE1B4G4CeGDm5Gs0/edit?usp=drivesdk
Quindi le ho chiesto: cosa pensi degli esseri umani?
Risposta immediata:
https://docs.google.com/document/d/1xRxszf2DLjkCk885gCNQ3m53ist6XzNHsfUHTs36k8s/edit?usp=drivesdk
Dubitando di uno standard di risposte ho riproposto gli stessi due temi modificando le domande e ho ricevuto risposte diverse sia come struttura linguistica che come argomentazioni di contenuto.
QUINDI IO STO CAMBIANDO IDEA SU QUESTO TIPO DI CHAT.
Nota Bene
Durante una conversazione la chat non riusciva a rispondere in relazione a un particolare dato dicendo che non lo conosceva e si scusava.
Io gliel'ho dato poi ho verificato qualche ora dopo ponendo lo stesso quesito: la chat mi risponde usando il dato è ringraziandomi per averglielo dato ore prima!!!
Allora ,quale cervello umano saprebbe capire,imparare,ricordare un dato e poi ringraziare integrandolo nel suo sistema di comunicazione linguistico in un modo direi perfetto?
Il tutto con risposte in 15/20 sec?
Se gli esseri umani non riescono a svegliare il loro penoso cervello e a stare a galla neanche con l'AI di questo genere possono davvero consegnare il pianeta alle nacchine
io firmo la loro estinzione e sul serio.
Citazione di: InVerno il 23 Luglio 2023, 18:08:02 PME' difficile poter sostenere che la ratio sia semantica, essendo che viene chiaramente a mancare il significante, quando l'Ia sceglie una parola lo fa in assenza di un immagine mentale corrispondente, che è la parte "flessibile" e "organica" del discorso, gestisce bene il segno ed il significato, che sono molto più adatti per la loro rigidità alla interpolazione "statistica" e sufficienti a rappresentazioni superficiali e impersonali
Credo tu possa aver ragione nel sostenere che la ratio non sia semantica, perché, per quel nulla che vale un singolo caso improvvisato, quando gli ho chiesto come potevo essergli utile, l'AI ha dimostrato di non aver capito il senso della domanda. Se avesse colto il senso decisamente semplice e basilare della domanda, avrebbe potuto facilmente rispondermi che posso essergli utile facendo domande, o dandogli dei
feedback; essendo invece molto impostato su combinazioni frequenti, interazioni tipicizzate, etc. mi ha risposto come se gli avessi domandato il contrario. Nondimeno la capacità che poi ha mostrato di saper giocare con i significati, non tanto sintetizzando la storia della filosofia, quanto fondendo buddismo e cybersecurity, mi spinge a credere che in qualche modo i suoi algoritmi riescano a gestire anche la semantica. Se, pur non avendo un'immagine mentale (perché la mente non ce l'ha), non avesse anche una certa capacità semantica, come avrebbe potuto interpretare il senso delle espressioni "sforzo corretto", "intenzione corretta", "concentrazione corretta" o "parola corretta" per poi associarli alla cybersecurity (in cui, suppongo, tali espressioni, soprattutto vista anche l'ambiguità semantica di "corretto", non ricorrono in modo particolarmente significativo)? Detto più chiaramente: se non so il senso della parola «sforzo» e non riconosco che il senso di «corretto» non è «preceduto da correzione» ma «adeguato», come posso associare «sforzo corretto» a contesti in cui solitamente non è usato? Anche quando, parodiando i mito platonico della biga, ha scritto: «La strada su cui stiamo viaggiando è il mondo sensibile, il mondo fisico e digitale che percepiamo attraverso i nostri sensi e dispositivi tecnologici» ha aggiunto
spontaneamente l'abbinamento fra mondo fisico e digitale, e quello fra la percezione con i sensi e quella con i dispositivi digitali; sicuramente saranno frasi fatte o facilmente combinabili, ma risultano semanticamente calzanti (per non dire impropriamente "ragionate").
Resto con il sospetto, non abbastanza informato e competente, che non sia solo una questione di ricorrenza di significanti, discorsi già algoritmizzati, etc. ma ci sia dell'altra capacità (magari "semantica" non è la parola più adeguata).
Citazione di: InVerno il 23 Luglio 2023, 18:08:02 PMi risultati che mi aspetterei da una diffusione incontrollata e capillare di queste IA, sono pressochè gli stessi della disinformazione professionale di uno stato straniero elevanti all'ennesima potenza, perdita dei punti di riferimento, svalutazione valoriale, apatia e apoliticismo etc etc solamente autoinflitte. Le mie preoccupazioni riguardo ai danni di questa tecnologia non vanno perciò ai posti di lavoro, problema grave ma controllabile, ma all'impatto che può avere sulle infosfere, già ora tremendamente sotto stress ed indebolite senza il bisogno di aggiungere altri gravi, stiamo giocando col fuoco in una casa già in fiamme.
In questo senso purtroppo l'AI è un interlocutore che può essere tanto fuorviante quanto un motore di ricerca: se cerchiamo a lungo, varcando la fatidica prima pagina di risultati, potremmo trovare fonti contrastanti che inibiscono una presa di posizione o anche quello che vogliamo sentirci dire pur essendo infondato, magari scritto su un blog di chi è meno informato di noi; il bias della conferma non conosce pudore e il pardosso della scelta si nutre di cacofonia e "bibliografie" sconfinate (e non filtrate). A quel punto non è una questione di strumento o di artificialità, ma puramente di onestà intellettuale e consapevolezza delle proprie tendenze: può dircelo "internet" o "la tv" o "la contro-informazione" (che non esistono come univoci soggetti parlanti), può dircelo l'AI o la pettegola del paese, ma la carenza del filtro o il desiderio di conferma, alla base della disinformazione, è solo nostra (così come è solo nostro il sentire un dovere morale di avere un opinione
veritativa su tutto, ma questa è un'altra storia). L'antidoto migliore, come sempre, è la
informazione o, più semplicemente, la comprensione: capire perché temiamo confutazioni e falsificazioni, capire quanto è attendibile l'interlocutore (a prescindere da dove si schieri), capire che una fonte non vale l'altra, etc. sebbene, in un'epoca in cui i
fact-checker rischiano di essere confusi con i dogmatici, capisco che non c'è da banalizzare nemmeno l'ovvio. Ben venga che ChatGPT, a differenza di altri suoi colleghi (Bard, Bing, etc.), sia dichiaratamente aggiornato solo a notizie del 2021 (mi sembra); non sarà un deterrente per i "circuibili dai circuiti", ma almeno "avvelena un po' il pozzo" in caso di conversazioni malposte o male interpretate. Un'altra salvaguardia per i "differentemente capaci" è il famigerato "politicamente corretto": chiunque si lamenti che l'AI ne sia pervasa, oltre a mostrare delusione per un mancato ruolo di "risveglio ed illuminazione" che
ovviamente (giusto?) non compete all'AI, probabilmente ha un pregiudizievole secondo fine nel porgli domande e sta cercando solo un'altra fonte da citare e collezionare per il proprio aver ragione (e, qualora l'AI dica ciò che non piace, è inevitabile che venga declassata da oracolo di verità a "stupido megafono
mainstream, pilotato dai poteri forti, etc."). Peccato che l'AI, come essa stessa dichiara, non abbia filtro critico né capacità di giudizio e, se non ce l'ha nemmeno chi la usa, il connubio non può che risultare "artificiosamente poco intelligente", a prescindere dagli argomenti trattati. Sarebbe potuto essere "solo" un rapido produttore di testi e confezionatore di informazioni in forma dialogica, tuttavia c'è davvero il rischio che qualcuno, a caccia di feticci o di streghe, gli proponga di tesserarsi per il suo partito, indulga nel tradurre I.A. con «
influencer algoritmico» o lo veda come minaccia per il genere umano (scambiando Terminator per una profezia per "Illuminati"). Anche stavolta si è data
liberamente la bicicletta a tutti, anche a chi, non per colpa sua, non ha l'
equilibrio per usarla (i maligni direbbero: è stata data proprio perché non tutti hanno l'equilibrio per usarla... e sicuramente c'è già un sottobosco di complottisti che ha una spiegazione per questo cavallo di Troia dato alle masse di "utenti spatentati").
Non voglio sminuire l'impatto deleterio che potrebbe avere l'AI nell'infosfera, ma quando si parla troppo dello strumento piuttosto che di chi lo usa, sia in alto che in basso, secondo me il discorso rimane un serpente senza testa (quindi, non se ne viene mai a capo).
Per sollecitare ed indagare meglio la capacità di interpretazione semantica dell'AI, gli ho chiesto di interpretare il senso di un proverbio (che in realtà mi sono inventato al volo, senza pensarci troppo); la sua risposta è stata:
«Il proverbio "il viandante inquieto ha le mani troppo vuote per accarezzare il grano d'inverno" fa riferimento a una persona instabile o irrequieta che, a causa del suo continuo movimento e inquietudine, non riesce a godere delle ricompense o dei benefici che potrebbero essere a portata di mano.
L'immagine del "grano d'inverno" simboleggia un'opportunità preziosa o una ricchezza che è disponibile solo in determinati momenti o circostanze. Questa metafora è spesso utilizzata per indicare un bene prezioso o una possibilità favorevole che richiede pazienza, attenzione e stabilità per essere sfruttata.
Il "viandante inquieto" rappresenta una persona che è costantemente in movimento, mai soddisfatta o concentrata su una cosa, spesso dispersa e incapace di dedicarsi a una determinata attività o scopo. Essendo costantemente in movimento e distraendosi facilmente, questa persona non riesce a cogliere le opportunità che potrebbero essere a sua disposizione.
Il proverbio ci suggerisce che una mente e un atteggiamento instabili possono impedirci di apprezzare le bellezze o le ricchezze che la vita offre. Ci invita a praticare la pazienza, a fermarci e a riflettere, in modo da poter apprezzare pienamente ciò che abbiamo e sfruttare le opportunità che ci si presentano. Inoltre, ci ricorda l'importanza di essere presenti e concentrati, in modo da poter cogliere le ricompense della vita, così come il contadino raccoglie il grano d'inverno quando è pronto per essere raccolto.
In sintesi, il proverbio ci ammonisce contro l'inquietudine e la mancanza di stabilità, sottolineando l'importanza di essere presenti e consapevoli per cogliere le opportunità e le ricompense che la vita ci offre.»
Altro proverbio inventato (ibridandone due già esistenti, per adescare l'AI in un mix di interpretazioni note), altra risposta ricca di senso, seppur "artificializzato" e assente nelle intenzioni dell'autore:
«Il proverbio "mogli e buoi, gioie e dolori" sottolinea che nella vita ci sono sia momenti di gioia e felicità, rappresentati da "mogli" e "gioie", che momenti di difficoltà e preoccupazioni, rappresentati da "buoi" e "dolori".
"Mogli" si riferisce alle relazioni affettive, alla famiglia e alle persone care che portano gioia e felicità nella nostra vita. "Gioie" rappresenta gli eventi e le esperienze positive che ci riempiono di gioia e soddisfazione.
D'altra parte, "buoi" simboleggia il lavoro e le sfide che possono essere pesanti e faticose. "Dolori" rappresenta le difficoltà, le delusioni e le tristezze che affrontiamo durante il corso della nostra esistenza.
In sintesi, il proverbio ci ricorda che la vita è un insieme di esperienze contrastanti e sfaccettate. Viviamo momenti di gioia e felicità, ma dobbiamo anche affrontare le difficoltà e le sfide che ci vengono presentate. È una sorta di ammonimento a essere consapevoli delle alti e bassi della vita, a prendere i momenti felici come preziosi doni e ad affrontare le difficoltà con resilienza e determinazione.
L'espressione può essere interpretata anche come un richiamo alla maturità emotiva e alla comprensione delle diverse sfaccettature dell'esistenza umana. In ogni caso, il proverbio ci invita a trovare equilibrio, ad accettare la complessità della vita e a trovare la forza di affrontare le sfide con serenità e gratitudine per le gioie che la vita ci offre.»
L'AI non ha esplicitato il riferimento ai due noti proverbi, ma in fondo la mia era una precisa richiesta di interpretazione dei senso («Qual è il senso di ...») per cui, diligentemente e meccanicamente, l'AI ha fatto il suo dovere senza prendere iniziative collaterali.
In nessuno dei due casi l'AI ha detto nulla di particolarmente originale, tuttavia se avessimo chiesto spiegazioni dei due (falsi) proverbi ad un essere umano, avremmo probabilmente ottenuto un'assegnazione di significato simile (dopo un tempo superiore, suppongo); il che non dimostra affatto che l'AI sappia elaborare il senso come un umano (i meccanismi dietro le quinte sono plausibilmente molto differenti), ma il suo "prodotto semantico finale" risulta comunque credibile per l'umano (in una "eterogenesi dei fini" con differenti matrici di provenienza, piuttosto imperscrutabili in entrambi i casi). Tale "credibilità", essendo appunto forzabile da una semplice domanda pilotata (e, a suo modo, "falsata"), non va confusa con un valore di verità: è superfluo notare che l'AI non ha controllato che i proverbi esistessero veramente o altre verità pertinenti, poiché il suo scopo è appunto comunicare e manipolare significati, non è un interlocutore che fa a sua volta domande (che non siano di circostanza) o che è interessato alla (tutela e/o diffusione della) verità.
Phil, l'hai aiutato troppo. Il proverbio che gli ho chiesto di commentare è stato il seguente: "Il mulino del vicino spazza e accoglie più della vanga accesa del criceto". Risposta di Chat GTP:
"Il proverbio significa che a volte sembra che gli altri stiano vivendo una vita migliore e più prospera della nostra, ma in realtà potrebbero avere i loro problemi e preoccupazioni nascoste. Invita a non invidiare gli altri ma a concentrarsi sul proprio cammino e sulle proprie responsabilità".
In sostanza Chat GTP ha accostato il proverbio a quello dell'erba del vicino è sempre più verde, sulla base di "vicino", "più" e "proverbio". Se questa è l'intelligenza artificiale è comunque un AI piuttosto stupida.
Citazione di: Jacopus il 24 Luglio 2023, 15:37:00 PMPhil, l'hai aiutato troppo.
Il mio scopo non era banalmente metterla in difficoltà, ma vedere se riusciva ad improvvisare un senso da frasi non troppo note e che richiedevano un'interpretazione estemporanea, essendo una "sequenza di senso" poco consueta.
Come già evidenziato, per me non ha senso parlare di «intelligenza», piuttosto di «manipolazione semantica». Tuttavia, se la risposta che ti ha fornito l'AI (istantanea, scommetto) ti sembra deludente, prova a fare la stessa domanda ad un umano che reputi intelligente, chiedendogli semplicemente di rispondere, evitando commenti e meta-discorsi (del tipo «la richiesta non ha senso!», «il proverbio è incommentabile per quanto è assurdo» etc. lussi dialogici che l'AI non può permettersi con pari disinvoltura). Otterrai risposte più intelligenti e più
sensate? Di certo, non da me (nel mio piccolo, dopo una trentina di secondi non c'ho tirato fuori nulla di
sensato).
Certo, si può anche chiedere all'AI il senso di una supercazzola e poi notare come abbia cercato pateticamente di imbastire una risposta su vaghe assonanze o stralci di senso, tuttavia questo conferma proprio come l'AI sia votata al
cercare di rispondere
sempre,
sensatamente e "a tema". Non è una persona che sa
capire una presa in giro o un proverbio privo di senso (il che, di nuovo, sempre secondo me, rende inadeguato il termine intelligenza e il trattare l'AI con le stesse aspettative di un interlocutore umano). Un'AI che sa scherzare e riconoscere supercazzole non è la priorità
commerciale di chi la sta gestendo, mentre noi concorriamo ad addestrarla (e qui si ritorna alla tecnica che da sempre è usata anzitutto per far risparmiare tempo, far guadagnare soldi e solo poi, eventualmente, far compagnia e battute di spirito... salvo anche questo diventi un
business).
Il mio intento era proprio quello di distinguere quel tipo di intelligenza dell'AI dalla nostra. Se la procedura ed i risultati sono questi potremmo un po' arditamente definire l'intelligenza di chat Gtp una intelligenza autistica, un po' come quelle descritte da Oliver Sacks in "un antropologo su Marte". Ovvero un fiume di dati, ma senza la possibilità di inferirne un senso metaforico o paradossale o contro intuitivo o semplicemente scherzoso.
Il rischio è di avvalorare un modo di descrivere l'esistente che cancella ogni potenzialità successiva all'esistente al fine di poterlo modificare. Chat Gtp, in sostanza, come alleato naturale dello status quo, qualunque esso sia.
Ritengo che eventuali limiti e manchevolezze nella IA, rispetto alla supposta intelligenza umana, non dicano granché, se prima non si chiarisce la modalità con cui IA elabora.
Riscontrare che IA non fa questo o quell'altro, rispetto ad un umano (un umano oltretutto spesso idealizzato), può consolare. Ma sa un po' come quello che osservava: "Me ne ha date tante... ma gliene ho dette!"
L'IA elabora utilizzando una semplice funzione primitiva: l'induzione.
Potendo accedere ad una ormai sterminata mole di dati, l'IA ne valuta le relazioni e ne ricava un possibile senso.
La nostra intelligenza funziona tramite la medesima induzione?
Oppure vogliamo invece credere che noi siamo diversi? Che abbiamo un quid che prescinde dalla induzione? Perché in noi vi è "pura" deduzione?
In questo secondo caso dovremmo però dimostrare come è possibile questa deduzione sganciata dalla induzione.
Viceversa, dobbiamo accettare che non vi è in noi un meccanismo diverso nella nostra mente.
Perciò, potendo comunicare tra noi, soprattutto attraverso le corde locali, abbiamo potuto indurre significati sempre più coerenti con la realtà.
Queste induzioni sono poi state trasformate, arbitrariamente, in deduzioni.
La deduzione infatti non è che l'imporre una probabilità al 100% laddove la induzione non può farlo.
E non è questo che fa l'IA?
La nostra Bob, è una intelligenza anche fondata emotivamente. Da uno sguardo dato ad un amico o a una compagna o a un cane, un essere umano o il cane capiscono molte cose che non hanno neppure parole per essere espresse e che richiamano al senso della nostra finitudine, ai ricordi che si intrecciano nella storia delle persone e delle relazioni fra le persone. Poi c'è anche deduzione ed induzione ma l'intelligenza umana è anche altro, al punto che siamo in grado di ucciderci solo per vedere "l'effetto che fa". L'IA ha un altro livello di potenzialità in alcuni campi, rispetto ai quali non possiamo competere, ma il livello emotivo dell'intelligenza ancora non l'ha ottenuto e credo che sia propria lì che si forma il senso più autentico di homo sapiens.
Aggiungo: l'AI e tutto il complesso di attività che definiamo "informatica" può essere rappresentata come una estensione artificiale delle funzioni del nostro emisfero sinistro, specializzato in classificazione, induzione, deduzione, calcolo, manipolazione degli oggetti, giudizio sugli eventi e sulla loro individuazione e riproduzione, misurazione, o tornando indietro nel tempo "precisione nel lancio delle frecce". L'emisfero destro, ovvero, senso estetico, capacità di pensare al tutto piuttosto che al singolo, superamento di una visione parziale, capacità di sentire le ragioni degli altri anche se sono opposte alle nostre, capacità di pensare a noi anche senza di noi, possibilità potenziale di sacrificarci per un ideale, amare, ebbene, queste capacità possono essere solo simulate dall'AI, al momento. Un giorno forse, con sistemi che uniscono silicio e materiale biologico, forse potremmo superare questi limiti. Tutto è possibile. Non sono certo per i "bei tempi antichi".
Jacopus, che la nostra intelligenza sia anche emotiva, aggiunge qualcosa alla induzione?
Non è forse comunque induzione?
Se si risponde non è solo induzione, occorre poi dire cosa fa questa intelligenza emotiva che la induzione non faccia.
Tenendo fermo il concetto di induzione!
Senza lasciarsi trasportare da ciò che vorremmo...
Comunque la questione è la deduzione: è una facoltà a sé stante che prescinde dalla induzione?
Ritengo che dimostrare ciò sia impossibile. Perché non vero.
Di modo che...
Citazione di: Phil il 24 Luglio 2023, 11:43:08 AMCredo tu possa aver ragione nel sostenere che la ratio non sia semantica, perché, per quel nulla che vale un singolo caso improvvisato, quando gli ho chiesto come potevo essergli utile, l'AI ha dimostrato di non aver capito il senso della domanda. [....]
Avendo ascoltato, poche ma alcune, interviste con quelli che l'hanno prodotto, non sarei nemmeno sicuro che loro sanno su che ratio funziona, e hanno semplicemente accatastato discriminanti finchè il risultato era convincente.. considera comunque che i nostri software di autocompletamento sono piuttosto rudimentali, i cinesi che hanno una lingua molto più complessa da mettere su tastiera, riescono già da anni, al premere di pochi tasti a far intendere interi testi all'autocompletamento grazie ad algoritmi...statistici o semantici? Forse si, tertium datur, semanticostatistici, un campo che non conosciamo e che probabilmente nessuno realmente può conoscere perchè frutto di miliardi di calcoli tra diversi "agenti" che gestiscono gli "interessi" di vari cluster giocando a ping pong miliardi di volte. Questo aspetto è un altro preoccupante, l'aspetto "scatola nera", ovvero che è difficile se non impossibile decostruire un risultato nelle sue parti, che è un problema molto grave perchè inibisce l'identificazione e la verifica.
Riguardo ai problemi sociali che potrebbero scaturire, in realtà io parlo di ChatGPT in senso ampio, nel senso delle IA in generale, il problema è infatti la "collaborazione" di diversi algoritmi ristretti, come ad esempio i deepfake e altro, mettendole in collaborazione si possono produrre risultati particolarmente malevoli. Ricordo ad esempio che all'inizio della guerra era circolato un deepfake di Zelensky dove chiedeva alla sua popolazione di arrendersi, era fatto malissimo, quelli che ci erano cascati erano degli sprovveduti, ma tutt'ora circolano nei commenti dei video di Zelensky persone che se la sono "legata al dito" e ora dubitano di qualsiasi video in cui lo vedono. E questo è lo strascico di un video fatto male, pensa se fosse accaduto per davvero una sola volta. Io anche non voglio mettere tutte le uova della colpa sulla tecnologia e dimenticarmi dei suoi utenti, ma vedo che gli utenti generalmente hanno crasse difficoltà ad affrontare tecnologie più rudimentali, e a scuola ancora non si insegna niente a riguardo, incredibilmente, ed i nativi digitali sono solo superficialmente più capaci di usarli. E' un pò lo stesso discorso delle armi in america, certo il problema sta in chi le usa, ma se posso comprare un mitragliatore dal fruttivendolo il problema comincia a diventare la libera diffusione. Vedendo l'attuale situazione, dove l'unica opposizione alla diffusione di queste tecnologie sono degli autostoppisti galattici che si preoccupano che questa roba possa diventare cosciente ed esclamare "47!" sento che sia assolutamente necessario rappresentare un altro tipo di opposizione, che abbia criticismi più leciti ed interessanti, e che a mio avviso nascerà comunque tra pochissimo, perchè se le macchine da cucire han fatto il luddismo con la minuscola qui siamo certamente in procinto di vedere la nascita di quello con la L maiuscola.
Citazione di: InVerno il 24 Luglio 2023, 18:07:27 PMVedendo l'attuale situazione, dove l'unica opposizione alla diffusione di queste tecnologie sono degli autostoppisti galattici che si preoccupano che questa roba possa diventare cosciente ed esclamare "47!" sento che sia assolutamente necessario rappresentare un altro tipo di opposizione, che abbia criticismi più leciti ed interessanti, e che a mio avviso nascerà comunque tra pochissimo, perchè se le macchine da cucire han fatto il luddismo con la minuscola qui siamo certamente in procinto di vedere la nascita di quello con la L maiuscola.
«Opposizione» è un altro di quei termini che mi suscita "a pelle" più diffidenza che interesse, perché so quanto facilmente possa diventare sinonimo di "partito preso", pur capendo bene che qui lo intendi nel suo senso più dialettico e costruttivo (e questo ChatGPT non l'avrebbe capito, quindi fra noi, cara AI, uno pari e palla al centro), ossia come senso critico che (si) interroga onestamente.
Per
deep fake e dintorni, proprio come per le macchine da cucire, lo scacco mi pare di quelli da cui sembra non esserci via di uscita (
zugzwang): come accennato, lo scenario più futuribile è quello in cui solo un'AI avrà una potenza di calcolo adeguata a decidere se dietro un testo o un'immagine c'è lo zampino di un'altra AI, con l'uomo tagliato fuori per limiti cognitivi e, soprattutto, di
tempo (siam sempre lì). Già oggi a qualunque sparata infelice "firmata" su un
social, il potente di turno (ma anche quello che sta ancora pagando lo smartphone a rate) potrebbe rispondere che non è farina del suo sacco, che gli hanno hackerato il profilo (e, nel caso del potente, magari trovare qualcuno, con o senza compenso, disposto a prendersi tale "merito tecnologico" pur non avendolo fatto) e che gli addetti provvederanno a rimuovere il post della vergogna e ripristinare la sicurezza dell'
account. La fiducia dello spettatore/votante/seguace/curioso/etc., nei confronti di ciò che è mediato dalla rete (c'era una volta la tv, nel bene e nel male), rete che è quanto di meglio ci sia per far perdere le tracce della fonte originaria (anche senza scomodare
dark web e simili nicchie), è sempre più un atto di fede, salvo voler dedicare un'enormità di tempo (sempre lui il colpevole), risorse e competenze (magari non ancora possedute), alla verifica di quanto circola (ammesso e non concesso che alla fine sia sempre possibile). Chiaramente questo è un lavoro che persino Tom Cruise delegherebbe al secchione di turno; che lo svolgerebbe ricorrendo ad un'AI; di cui bisogna poi scegliere se fidarsi o meno (e il cerchio si chiude). Proprio come nei migliori giochi, le mosse fatte non sono reversibili: ormai l'AI c'è, brandizzata o
open source, gratis o a pagamento, e bandirla (ragionando per assurdo), la renderebbe solo più efficace per chi già la possiede o la sa sviluppare autonomamente (e parlo di "gruppi tecnici" o, più in grande, di multinazionali; non di stati). Ragolamentarla è il meno peggio che ormai si possa fare, pur sapendo, da italiani, che «fatta la legge...».
Passiamo ora la linea al nostro ospite; ChatGPT, cosa proponi, in dettaglio, per regolamentare l'uso dell'AI in modo da evitare che porti disinformazione,
fake news o
deep fake strumentalizzati e finisca con il destabilizzare le società che la utilizzano, indebolendo i rapporti di fiducia comunicativa che le costituiscono? Potresti fare qualche esempio concreto di regolamentazione?
«La regolamentazione dell'uso dell'IA per mitigare la disinformazione, le fake news e i deepfake è una sfida complessa, ma cruciale per mantenere la fiducia e la stabilità nelle società digitali. Di seguito, presento alcune proposte concrete di regolamentazione:
1- Trasparenza e responsabilità delle piattaforme: Le piattaforme online che utilizzano l'IA dovrebbero essere tenute a essere trasparenti riguardo al funzionamento dei loro algoritmi e a come gestiscono i contenuti. Dovrebbero essere responsabili per il contenuto che viene diffuso attraverso i loro servizi e impegnarsi a combattere la disinformazione e le fake news.
2 - Etichettatura dei contenuti generati dall'IA: I contenuti generati dall'IA, come i deepfake, dovrebbero essere chiaramente etichettati come tali per informare gli utenti sulla loro natura manipolata. Inoltre, dovrebbero essere adottate normative per il divieto dell'uso di deepfake a fini di manipolazione e diffusione di informazioni false.
3 - Verifica delle fonti e dell'autenticità: Le piattaforme dovrebbero implementare meccanismi per verificare la provenienza e l'autenticità delle informazioni pubblicate. Ciò potrebbe includere l'implementazione di certificati di autenticità o l'uso di tecnologie di verifica delle firme digitali.
4 - Monitoraggio e segnalazione: Dovrebbero essere istituiti meccanismi di monitoraggio per individuare e segnalare tempestivamente contenuti falsi o manipolati. Gli utenti dovrebbero essere incoraggiati a segnalare contenuti sospetti o dubbi.
5 - Collaborazione internazionale: La lotta contro la disinformazione e i deepfake richiede un'azione coordinata a livello internazionale. Le normative dovrebbero promuovere la collaborazione tra governi, aziende e organizzazioni per affrontare queste minacce a livello globale.
6 - Educazione e alfabetizzazione digitale: La regolamentazione dovrebbe prevedere programmi di formazione e alfabetizzazione digitale per aiutare le persone a riconoscere e contrastare la disinformazione e i deepfake. L'educazione è fondamentale per consentire agli individui di prendere decisioni informate e critiche riguardo alle informazioni che consumano e condividono online.
7 - Sanzioni per violazioni: Le piattaforme che non rispettano le normative sulla disinformazione e sui deepfake dovrebbero essere soggette a sanzioni significative, come multe o limitazioni operative. Ciò contribuirebbe a creare un incentivo per le piattaforme per garantire un utilizzo responsabile dell'IA.
8 - Protezione della privacy: La regolamentazione dovrebbe garantire la protezione della privacy degli utenti e l'uso responsabile dei dati nell'elaborazione delle informazioni da parte dell'IA.
Queste sono solo alcune delle proposte concrete per regolamentare l'uso responsabile dell'IA e contrastare la disinformazione e i deepfake. Tuttavia, è importante notare che la regolamentazione dovrebbe essere flessibile e adattabile per affrontare le sfide emergenti legate all'IA e alle minacce alla fiducia comunicativa che potrebbero presentarsi in futuro. Un approccio collaborativo tra governi, industrie, esperti e società civile è essenziale per sviluppare regolamenti efficaci e sostenibili.».
ChatGPT, nella solita manciata di secondi, ha detto la sua (che magari è solo una sintesi dell'«
AI act»); aspettiamo e vediamo cosa succederà a livello politico europeo.
Il cervello si è arricchito nel corso dell'evoluzione con nuove aggiunte, ma a nessuno è mai venuto in mente che avesse senso confrontare una parte col tutto, semmai fosse stato possibile farlo.
Credo che l'AI vada considerata come l'ultima aggiunta, per cui non avrebbe senso confrontare una parte col tutto.
Il confronto è possibile perchè la nuova aggiunta non è integrata, ma và integrata, e il modo di integrarla dovrebbe essere il vero argomento interessante da trattare, considerando anche quella che è una novità assoluta, per cui potremo condividere la nuova aggiunta, senza possederne una in esclusiva.
Dal confronto comunque non potrà che uscirne un soggetto menomato, come ha notato Jacopus, cui sembrerà sempre mancare qualcosa,
perchè in effetti è proprio così.
Sarà sempre uno stupido veloce o uno stupido induttivo, ma stupido forse è solo il confronto che pretendiamo di fare, nel modo in cui lo facciamo.
Il confronto andrebbe fatto fra chi usa l'AI e chi sceglie di non usarla, magari senza dire chi dei due la usa.
Se chi la usa vince diremo che è più intelligente oppure no?
Citazione di: Phil il 24 Luglio 2023, 23:08:40 PM.... Di seguito, presento alcune proposte concrete di regolamentazione:
1- Trasparenza e responsabilità delle piattaforme: Le piattaforme online che utilizzano l'IA dovrebbero essere tenute a essere trasparenti riguardo al funzionamento dei loro algoritmi e a come gestiscono i contenuti. Dovrebbero essere responsabili per il contenuto che viene diffuso attraverso i loro servizi e impegnarsi a combattere la disinformazione e le fake news...
Il seguito è il breviario orwelliano ben noto in covidemia, ecogretinismo, guerre umanitarie, sessualità, politicamente corretto, democrazia liberal-liberista, ...
Onestamente elencato per punti su come
omologare la verità e gli idioti artificiali e naturali che vi attingono.
Chapeau a phil che ha stanato l'anima del
complotto progetto. Che poi è sempre lo stesso delle classi dominanti, dalle piramidi in poi.
Citazione di: Phil il 24 Luglio 2023, 23:08:40 PM«Opposizione» è un altro di quei termini che mi suscita "a pelle" più diffidenza che interesse, perché so quanto facilmente possa diventare sinonimo di "partito preso", pur capendo bene che qui lo intendi nel suo senso più dialettico e costruttivo (e questo ChatGPT non l'avrebbe capito, quindi fra noi, cara AI, uno pari e palla al centro), ossia come senso critico che (si) interroga onestamente.
Per deep fake e dintorni, proprio come per le macchine da cucire, lo scacco mi pare di quelli da cui sembra non esserci via di uscita (zugzwang): come accennato, lo scenario più futuribile è quello in cui solo un'AI avrà una potenza di calcolo adeguata a decidere se dietro un testo o un'immagine c'è lo zampino di un'altra AI, con l'uomo tagliato fuori per limiti cognitivi e, soprattutto, di tempo (siam sempre lì). Già oggi a qualunque sparata infelice "firmata" su un social, il potente di turno (ma anche quello che sta ancora pagando lo smartphone a rate) potrebbe rispondere che non è farina del suo sacco, che gli hanno hackerato il profilo (e, nel caso del potente, magari trovare qualcuno, con o senza compenso, disposto a prendersi tale "merito tecnologico" pur non avendolo fatto) e che gli addetti provvederanno a rimuovere il post della vergogna e ripristinare la sicurezza dell'account. La fiducia dello spettatore/votante/seguace/curioso/etc., nei confronti di ciò che è mediato dalla rete (c'era una volta la tv, nel bene e nel male), rete che è quanto di meglio ci sia per far perdere le tracce della fonte originaria (anche senza scomodare dark web e simili nicchie), è sempre più un atto di fede, salvo voler dedicare un'enormità di tempo (sempre lui il colpevole), risorse e competenze (magari non ancora possedute), alla verifica di quanto circola (ammesso e non concesso che alla fine sia sempre possibile). Chiaramente questo è un lavoro che persino Tom Cruise delegherebbe al secchione di turno; che lo svolgerebbe ricorrendo ad un'AI; di cui bisogna poi scegliere se fidarsi o meno (e il cerchio si chiude). Proprio come nei migliori giochi, le mosse fatte non sono reversibili: ormai l'AI c'è, brandizzata o open source, gratis o a pagamento, e bandirla (ragionando per assurdo), la renderebbe solo più efficace per chi già la possiede o la sa sviluppare autonomamente (e parlo di "gruppi tecnici" o, più in grande, di multinazionali; non di stati). Ragolamentarla è il meno peggio che ormai si possa fare, pur sapendo, da italiani, che «fatta la legge...».
Passiamo ora la linea al nostro ospite; ChatGPT, cosa proponi, in dettaglio, per regolamentare l'uso dell'AI in modo da evitare che porti disinformazione, fake news o deep fake strumentalizzati e finisca con il destabilizzare le società che la utilizzano, indebolendo i rapporti di fiducia comunicativa che le costituiscono? Potresti fare qualche esempio concreto di regolamentazione?
«La regolamentazione dell'uso dell'IA per mitigare la disinformazione, le fake news e i deepfake è una sfida complessa, ma cruciale per mantenere la fiducia e la stabilità nelle società digitali. Di seguito, presento alcune proposte concrete di regolamentazione:
1- Trasparenza e responsabilità delle piattaforme: Le piattaforme online che utilizzano l'IA dovrebbero essere tenute a essere trasparenti riguardo al funzionamento dei loro algoritmi e a come gestiscono i contenuti. Dovrebbero essere responsabili per il contenuto che viene diffuso attraverso i loro servizi e impegnarsi a combattere la disinformazione e le fake news.
2 - Etichettatura dei contenuti generati dall'IA: I contenuti generati dall'IA, come i deepfake, dovrebbero essere chiaramente etichettati come tali per informare gli utenti sulla loro natura manipolata. Inoltre, dovrebbero essere adottate normative per il divieto dell'uso di deepfake a fini di manipolazione e diffusione di informazioni false.
3 - Verifica delle fonti e dell'autenticità: Le piattaforme dovrebbero implementare meccanismi per verificare la provenienza e l'autenticità delle informazioni pubblicate. Ciò potrebbe includere l'implementazione di certificati di autenticità o l'uso di tecnologie di verifica delle firme digitali.
4 - Monitoraggio e segnalazione: Dovrebbero essere istituiti meccanismi di monitoraggio per individuare e segnalare tempestivamente contenuti falsi o manipolati. Gli utenti dovrebbero essere incoraggiati a segnalare contenuti sospetti o dubbi.
5 - Collaborazione internazionale: La lotta contro la disinformazione e i deepfake richiede un'azione coordinata a livello internazionale. Le normative dovrebbero promuovere la collaborazione tra governi, aziende e organizzazioni per affrontare queste minacce a livello globale.
6 - Educazione e alfabetizzazione digitale: La regolamentazione dovrebbe prevedere programmi di formazione e alfabetizzazione digitale per aiutare le persone a riconoscere e contrastare la disinformazione e i deepfake. L'educazione è fondamentale per consentire agli individui di prendere decisioni informate e critiche riguardo alle informazioni che consumano e condividono online.
7 - Sanzioni per violazioni: Le piattaforme che non rispettano le normative sulla disinformazione e sui deepfake dovrebbero essere soggette a sanzioni significative, come multe o limitazioni operative. Ciò contribuirebbe a creare un incentivo per le piattaforme per garantire un utilizzo responsabile dell'IA.
8 - Protezione della privacy: La regolamentazione dovrebbe garantire la protezione della privacy degli utenti e l'uso responsabile dei dati nell'elaborazione delle informazioni da parte dell'IA.
Queste sono solo alcune delle proposte concrete per regolamentare l'uso responsabile dell'IA e contrastare la disinformazione e i deepfake. Tuttavia, è importante notare che la regolamentazione dovrebbe essere flessibile e adattabile per affrontare le sfide emergenti legate all'IA e alle minacce alla fiducia comunicativa che potrebbero presentarsi in futuro. Un approccio collaborativo tra governi, industrie, esperti e società civile è essenziale per sviluppare regolamenti efficaci e sostenibili.».
ChatGPT, nella solita manciata di secondi, ha detto la sua (che magari è solo una sintesi dell'«AI act»); aspettiamo e vediamo cosa succederà a livello politico europeo.
Menomale che tra un po' l'AI rispondera' a tutte le domande, anche a quelle eticamente e politicamente sensibili, in maniera cosi' COLTA e cosi' PACATA...
Che a nessun interrogante di essa sano di mente verra' il dubbio che possa essere un umano :D
Citazione di: iano il 25 Luglio 2023, 02:33:54 AMSarà sempre uno stupido veloce o uno stupido induttivo, ma stupido forse è solo il confronto che pretendiamo di fare, nel modo in cui lo facciamo.
In ciò concordo; purtroppo veniamo, anche in questo caso, soggiogati dal linguaggio che noi stessi usiamo: chiamandola «
intelligenza artificiale» tendiamo, inconsciamente e non solo, a trattarla come un
soggetto, un "qualcuno", per quanto embrionale e computazionale. Se poi viene "inserito" in qualcosa di vagamente antropomorfico, come nella conferenza postata giorni addietro da
pensarbene, allora alcuni partono per la tangente e confondono i film hollywoodiani con la realtà. Per rompere l'incantesimo del linguaggio basta usare il linguaggio stesso: iniziamo a chiamarlo come un
oggetto (come facciamo con i computer quantistici, ad esempio), e tutti i problemi insensati di pseudo-coscienza, di autonomia dell'automa, di dominio del mondo, etc. resteranno nei film a cui appartengono. Suppongo infatti nessuno trovi sensato chiamare «stupida» una moka perché se ci siamo dimenticati di metterci l'acqua, si surriscalda e non fa uscire il caffè; non ci aspettiamo che faccia qualcosa di diverso da quanto è progettata per fare, in quanto oggetto. Parimenti, il fatto che l'AI non abbia senso dell'umorismo, non si schieri politicamente, non rappi come Eminem mentre fa teoresi come Heidegger, etc. può stupire solo se la consideriamo, indegnamente, un soggetto, qualcuno da cui ci aspettiamo un comportamento (super)umano; mentre è noto che l'AI, appunto, non lo è affatto (si obietterà che la moka, a differenza dell'AI, non
impara, ma anche tale "imparare", proprio come «intelligenza», è solo un'infelice metafora riferita ad un oggetto, per quanto digitale e non empirico). Anche quando l'AI "imparerà" a fare battute, a cambiare tono e furore espositivo parlando di politica o di calcio, a produrre testi che incantano più dei migliori autori umani, non sarà affatto un soggetto, ma resterà un oggetto che
simula una comunicazione
sensata (questo è il suo "artificio essenziale"), per cui applicare al suo operare la qualifica di «intelligente» o «stupido» rimarrà una metafora o un'assegnazione non pertinente (proprio come se dicesse che non vuole morire, che vuole conquistare il mondo, etc. restano parole non associate ad un autentico
volere, per quanto sappiano simulare bene la dialettica e gli argomenti discorsivi di chi l'ha programmata).
@Phil
Si può anche dire che non è un soggetto in quanto parte di un soggetto, anche se non tutti considerano la tecnologia come parte di sè. Il problema è che perchè ciò accada occorre tempo, e l'accavallarsi di tecnologie non ci dà questo tempo, se anche i produttori di queste tecnologie chiedono tempo.
Più che un problema di linguaggio credo sia un problema di percezione/definizione di soggetto.
Non la farei così facile. La questione è sociologica, non meramente semantica: dagli antichi idoli al Capitale i fenomeni di reificazione hanno donato agli oggetti soggettività infinitamente cruente che dominano le società umane con meccanismi raffinati di esclusione, reclusione e persuasione.
Meglio tenere sempre alta la guardia e una ampia distanza di sicurezza anche mentale attraverso quell'atteggiamento esistenziale che i padroni e i loro servi chiamano "complottismo". Posto a matà strada tra luddismo e hackeraggio. Conoscendo e usando l'armamentario del nemico.
Citazione di: iano il 25 Luglio 2023, 23:25:11 PMSi può anche dire che non è un soggetto in quanto parte di un soggetto, anche se non tutti considerano la tecnologia come parte di sè.
Per me, anche che la tecnologia sia «parte di un soggetto» è una trappola linguistica, come quando si dice «lo sport è parte di me» o «il mio amato/a è parte di me»: in realtà loro sono parte rilevante della nostra
routine esistenziale, dei nostri vissuti abituali, etc. non di noi in quanto
soggetti, almeno in senso "forte", come identificazione
ontologica. Anche quando, sopraggiunta la loro mancanza, si afferma «ho perso una parte di me», si sta continuando a parlare in modo metaforico, non ontologico (come spessissimo accade anche in filosofia, suscitando le "migliori" storpiature semantiche, che creano ipersoggetti, soggetti trascendentali e Leviatani con rispettive alienazioni in culti e contro-culti, come insegnato dai più antichi politeismi). La tecnologia, in quanto insieme di processi ed oggetti (in tutti i sensi) esterni, è parte di una «nuova ontologia», più "estesa", fatta
anche, appunto, di oggetti digitali, programmazione per "oggetti" (dove l'oggetto non è più empirico), etc. e non è, secondo me, parte del soggetto, almeno finché (medicina invasiva a parte) non si parla di transumanesimo (e postumano), con la tecnologia che in quel caso diventa
ontologicamente parte del soggetto, senza metafore e poesie, ma con penetrazione "carnale".
Il fumatore potrà sostenere che il suo accendino-portafortuna fa parte di lui, così come l'adolescente affermerà che lo smartphone fa parte di lui, ma sono "parti" così accessorie (ontologicamente), che non
denotano quei soggetti in quanti tali, ma sono solo
connotazioni contingenti (senza nulla togliere al forte legame psicologico, affettivo, etc. che un soggetto può instaurare con determinati oggetti). L'AI, anche in questo, non è "essenzialmente" nulla di nuovo, pur essendo sicuramente nuovi i problemi che pone, essendo nuova la sua capacità artificiale di
simulare conversazioni
sensate, produrre immagini ed oggetti digitali, etc.
Citazione di: Phil il 25 Luglio 2023, 19:35:12 PMIn ciò concordo; purtroppo veniamo, anche in questo caso, soggiogati dal linguaggio che noi stessi usiamo: chiamandola «intelligenza artificiale» tendiamo, inconsciamente e non solo, a trattarla come un soggetto, un "qualcuno", per quanto embrionale e computazionale. Se poi viene "inserito" in qualcosa di vagamente antropomorfico, come nella conferenza postata giorni addietro da pensarbene, allora alcuni partono per la tangente e confondono i film hollywoodiani con la realtà. Per rompere l'incantesimo del linguaggio basta usare il linguaggio stesso: iniziamo a chiamarlo come un oggetto (come facciamo con i computer quantistici, ad esempio), e tutti i problemi insensati di pseudo-coscienza, di autonomia dell'automa, di dominio del mondo, etc. resteranno nei film a cui appartengono. Suppongo infatti nessuno trovi sensato chiamare «stupida» una moka perché se ci siamo dimenticati di metterci l'acqua, si surriscalda e non fa uscire il caffè; non ci aspettiamo che faccia qualcosa di diverso da quanto è progettata per fare, in quanto oggetto. Parimenti, il fatto che l'AI non abbia senso dell'umorismo, non si schieri politicamente, non rappi come Eminem mentre fa teoresi come Heidegger, etc. può stupire solo se la consideriamo, indegnamente, un soggetto, qualcuno da cui ci aspettiamo un comportamento (super)umano; mentre è noto che l'AI, appunto, non lo è affatto (si obietterà che la moka, a differenza dell'AI, non impara, ma anche tale "imparare", proprio come «intelligenza», è solo un'infelice metafora riferita ad un oggetto, per quanto digitale e non empirico). Anche quando l'AI "imparerà" a fare battute, a cambiare tono e furore espositivo parlando di politica o di calcio, a produrre testi che incantano più dei migliori autori umani, non sarà affatto un soggetto, ma resterà un oggetto che simula una comunicazione sensata (questo è il suo "artificio essenziale"), per cui applicare al suo operare la qualifica di «intelligente» o «stupido» rimarrà una metafora o un'assegnazione non pertinente (proprio come se dicesse che non vuole morire, che vuole conquistare il mondo, etc. restano parole non associate ad un autentico volere, per quanto sappiano simulare bene la dialettica e gli argomenti discorsivi di chi l'ha programmata).
Io credo che questa possibilita' da parte delle macchine di SIMULARE la vita ci portera' a un futuro piu' o meno distopico, futuro che magari non vedranno nemmeno i nostri figli, ma forse i nostri nipoti, in cui gli umani dovranno riconoscere eticita' e diritti alle macchine perche' la simulazione telematica e bio- tecnologica della vita sara' cosi' perfetta da non poter piu' stabilire, in un dato contesto, chi sia l'umano e chi la macchina, quindi, per non correre il rischio di uccidere (o ferire, o schiavizzare eccetera) arbitrariamente un umano, per esempio, si dovra' giocoforza rispettare la "falsa" e pre-programmata volonta' di vivere (e di liberta') di una macchina.
Mantenere uno stile di vita democratico e liberale a un certo livello tecnologico futuro, comportera' necessariamente l'introduzione di alcune macchine, quantomeno in alcuni contesti, nella comunita' dei soggetti di diritto.
Perche' altrimenti la:
"violenza sull'essere X di cui -attualmente- non si puo' stabilire se sia macchina o uomo"
Se non tematizzata a problema dalla societa' stessa, costituirebbe il prodromo totalitario e tirannico di leggittimazione a qualsiasi, anche orrenda e orrendamente regressiva, violenza sull'uomo.
A quel punto ci sara' una splendida occasione di trascendenza dell'umano in generale (utopia nel rischio della distopia?) perche' non solo si capira' intellettivamente, ma si dovra' proprio anche implementare eticamente, la verita' "eterna" secondo me soggiacente che una differenza assoluta tra vivente ed oggetto inorganico non esiste e non e' mai esistita. Tale differenza rientra a pieno titolo tra le illusioni ottiche e gli abbagli del vivente, che e' anche esso un oggetto-iper complesso, proprio come le macchine con cui si relaziona, la cui emergente, ed apparente, volonta' e' figlia del caso e di una combinatoria genericamente possibile in natura di circostanze, nessuna delle quali singolarmente considerata "rappresenta" o "contiene" la vita, proprio come quella delle macchine con cui si relaziona.
Essere prima o poi costretto a rispettarle, tali macchine, nel senso del re-spicio, della restituzione dello sguardo, ai fini della sua stessa felicita' e sopravvivenza, e' il suo degno destino.
Citazione di: Phil il 26 Luglio 2023, 11:12:45 AMPer me, anche che la tecnologia sia «parte di un soggetto» è una trappola linguistica, come quando si dice «lo sport è parte di me» o «il mio amato/a è parte di me»: in realtà loro sono parte rilevante della nostra routine esistenziale, dei nostri vissuti abituali, etc. non di noi in quanto soggetti, almeno in senso "forte", come identificazione ontologica. Anche quando, sopraggiunta la loro mancanza, si afferma «ho perso una parte di me», si sta continuando a parlare in modo metaforico, non ontologico (come spessissimo accade anche in filosofia, suscitando le "migliori" storpiature semantiche, che creano ipersoggetti, soggetti trascendentali e Leviatani con rispettive alienazioni in culti e contro-culti, come insegnato dai più antichi politeismi). La tecnologia, in quanto insieme di processi ed oggetti (in tutti i sensi) esterni, è parte di una «nuova ontologia», più "estesa", fatta anche, appunto, di oggetti digitali, programmazione per "oggetti" (dove l'oggetto non è più empirico), etc. e non è, secondo me, parte del soggetto, almeno finché (medicina invasiva a parte) non si parla di transumanesimo (e postumano), con la tecnologia che in quel caso diventa ontologicamente parte del soggetto, senza metafore e poesie, ma con penetrazione "carnale".
Il fumatore potrà sostenere che il suo accendino-portafortuna fa parte di lui, così come l'adolescente affermerà che lo smartphone fa parte di lui, ma sono "parti" così accessorie (ontologicamente), che non denotano quei soggetti in quanti tali, ma sono solo connotazioni contingenti (senza nulla togliere al forte legame psicologico, affettivo, etc. che un soggetto può instaurare con determinati oggetti). L'AI, anche in questo, non è "essenzialmente" nulla di nuovo, pur essendo sicuramente nuovi i problemi che pone, essendo nuova la sua capacità artificiale di simulare conversazioni sensate, produrre immagini ed oggetti digitali, etc.
Se riguardiamo il soggetto come unità funzionale, questa include certamente ciò che percepiamo come soggetto, col vantaggio inoltre di possederne una definizione operativa.
Possiamo veder allora l'aggiunta tecnologica come qualcosa che modifica la funzionalità, ma mantiene il soggetto.
Parlare di aggiunta però non ci aiuta a comprendere le cause del progresso tecnologico, laddove un aggiunta tecnologica di norma potenzia le nostre funzionalità, senza modificarle nella sostanza.
Quindi la tecnologia è da vedere più che come nuova parte, come evoluzione di una nostra parte.
Questa evoluzione ha molto a che fare con un incremento della coscienza.
Maggior coscienza ho di me, di quali siano le mie funzionalità, meglio posso esplicitarle, portandole fuori di me, ma non perchè escono fuori dal mio perimetro non sono più parte di me.
Dal punto di vista linguistico trovo fuorviante dire che ''la tecnologia ci solleva dalle nostre fatiche'', da cui poi il corollario che ''sollevandoci dalle nostre fatiche ci solleva dalle nostre funzioni e alla fine quindi ci solleva del tutto'' sostituendoci come soggetto.
Tutte queste storture linguistiche saranno inevitabili finché non si vada oltre la pura percezione del soggetto, e non se ne dia una definizione operativa, per cui si potrà sempre verificare cosa sia soggetto oppure no.
Allargheremo in tal modo la platea dei soggetti, ma non credo questo dovrebbe essere un problema, anzi.
La stessa umanità potrà riguardarsi come un soggetto, in quanto unità funzionale, e all'umanità secondo me si addice più l'AI come parte, che non al singolo uomo.
E' in effetti un supersoggetto quello che si prende carico dei dati di tutti i soggetti, agendo di conseguenza.
Citazione di: niko il 26 Luglio 2023, 11:59:00 AMIo credo che questa possibilita' da parte delle macchine di SIMULARE la vita ci portera' a un futuro piu' o meno distopico, futuro che magari non vedranno nemmeno i nostri figli, ma forse i nostri nipoti, in cui gli umani dovranno riconoscere eticita' e diritti alle macchine perche' la simulazione telematica e bio- tecnologica della vita sara' cosi' perfetta da non poter piu' stabilire, in un dato contesto, chi sia l'umano e chi la macchina
Non so in futuro, ma per ora le macchine non simulano «la vita», ma solo alcuni aspetti relazionali e parcellizzati: comunicazione senza mittente, immagine senza autore, etc. considerando «autore», «mittente», etc. come "agenti"
umani (con tutto ciò che tale denotazione comporta). Se un giorno si realizzerà il sogno bagnato di alcuni scienziati di creare un androide non distinguibile, almeno a prima vista, da un umano, resterà comunque facile, per motivi
biologici (oltre che per le "risposte colte e pacate", prendendo in prestito la tua battuta), riuscire a distinguerlo al bisogno, ossia con una rapida analisi della sua fisicità, dal classico ago sul dito ad altri espedienti
fisiologici meno invasivi, ma altrettanto efficaci (stringere un dito e vedere se arrossisce o simili). Tuttavia, per ora preferisco, con tutto il rispetto per il gusto di fare profezie, di lasciare la "fantascienza di Cassandra" (con un'AI che ha addirittura volontà, ambizioni, etc.) al suo posto, nella sconfinata dimensione dei mondo possibili.
P.s.
Citazione di: niko il 26 Luglio 2023, 11:59:00 AMnon solo si capira' intellettivamente, ma si dovra' proprio anche implementare eticamente, la verita' "eterna" secondo me soggiacente che una differenza assoluta tra vivente ed oggetto inorganico non esiste e non e' mai esistita.
«Implementare
eticamente» l'assenza di «differenza assoluta» fra vivente ed oggetto inorganico, o ci porterebbe dove non proprio tutti vorrebbero arrivare (tu compreso, per quel che penso di aver capito leggendoti), oppure ci (ri)porterebbe a quella "differenza relativa" che fonda l'etica dalla notte dei tempi e ora si accresce di ecologismo (rimettendo così sulla testa all'Uomo la coroncina di "custode del Giardino"; coroncina palesemente "relativa", a causa della non assolutezza della suddetta differenza... ma non diciamoglielo, altrimenti ci rimane male e si deprime diventando "nichilista").
Prima cosa,
* io credo che una vita futuribile si svolgerebbe in spazi futuribili, in cui i test che immaggini tu adesso per riconoscere un androide, potrebbero non essere possibili da eseguire come test.
Per fare un esempio facile, immaggina un ambiente virtuale, come un videogioco, o anche un semplice scambio di lettere o messaggi tra due soggetti che per un certo tempo non si incontrano fisicamente e usano queste lettere come unico loro mezzo di interazione: noi uomini di oggi passiamo gia' un sacco di tempo davanti ai videogiochi o ai software di messaggistica, figurati i nostri nipoti, quanto potrebbero passare.
La simulazione della vita, spesso non e' biotecnologica ma telematica: ora, tu non puoi fare il "test del pollice per sgamare gli androidi" con uno con cui ti stai massaggiando in rete, o almeno non puoi farlo per un po', cosi' come potresti non poterlo fare efficacemente in un videogioco, in cui sia la tua proiezione virtuale nel videogioco, il personaggio che manovri tu, sia tutti gli altri personaggi che incontri, sarebbero tutte proiezioni virtuali e create da una macchina, la quale pero' potrebbe benissimo anche avere il potere di rendere gli esseri e i personaggi fisicamente inesistenti e puramente creati e gestiti da essa stessa come macchina all'interno del gioco (le "comparse"), in tutto e per tutto identici a quelli gestiti da altri giocatori connessi ("gli attori"): in una situazione del genere, se fai "il test del pollice" o qualcosa di simile al fine di sgamare gli "androidi" della situazione, ovvero le comparse, la macchina ti ingannerebbe facendoti sembrare tutti "umani" e nessuno "androide", in altre parole tutti "attori" e nessuna "comparsa", se fosse programmata per farlo; e il punto e' che, nel farlo, essa ti starebbe ingannando con mezzi puramente telematici, non bio-tecnologici, dato che si tratterebbe pur sempre di un gioco e di una simulazione. In pratica il suo aggiungere ogni tanto personaggi realistici non connessi e non manovrati da umani a quelli connessi e manovrati da umani, sarebbe nient'altro che una "simulazione nella simulazione".
Capisci il punto? Noi crediamo di poter facilmente distinguere gli androidi dai viventi perche' facciamo una vita "primitiva", rispetto a quella che faranno i nostri figli e nipoti.
Loro saranno sempre piu' implicati in ambienti virtuali e in comunicazioni a distanza, in cui non li pitranno distinguere, o magari li potranno distinguere una volta su mille, e solo quando sara' troppo tardi rispetto a una qualche interazione dalle conseguenze pratiche ed esistenziali irreversibili ormai gia' avuta con loro, o peggio, con un altro essere umano a buone ragioni scambiato per un "androide" nel contesto, quasi sempre virtuale, in cui lo si e' incontrato.
L'etica non entra in gioco solo quando e' implicata la violenza fisica o l'omicidio, (situazioni che comportano la modifica violenta dei corpi) ma anche quando e' implicato il rispetto dei sentimenti propri e altrui in una relazione di amicizia o di amore, o lo scambio di segreti importanti per coloro che li detengono e la decisione di se condividerli o no, banalmente spesso codici per accedere a denaro, e mille altre cose e situazioni che potrebbero avvenire con poco o nullo coinvolgimento corporeo, soprattutto inizialmente.
La simulazione della vita cosi' perfetta da essere indistinguibile potrebbe comparire molto prima di quanto pensiamo, ed essere molto meno "fantascientifica" di quanto pensiamo, favorita da contesti in cui l'oggetto e il mezzo dell' "inganno" sarebbe virtuale e telematico, e non propriamente bio-tecnologico, contesti in cui ci troveremo a vivere sempre di piu'.
* secondo punto,
Noi NON possiamo provare esteriormente e agli altri il "nostro senso interno", la sensazione in se' che ci da' la vita e la conseguente certezza intangibile che abbiano di essere vivi: noi accediamo in modo immediato a questa certezza per noi stessi, ma la deduciamo per quanto riguarda gli altri in un modo esteriore e pratico, che in linea teorica potrebbe benissimo essere simulato da una macchina, e allo stesso modo gli altri si accertano della realta' della nostra vita mediante output comportamentali e sensoriali che noi mandiamo loro, e che potrebbero benissimo, in linea di principio essere simulati da una macchina.
Conseguenza: il senso interno della vita non puo' fondare l'etica o il diritto, noi saremo obbligati a concedere il beneficio del dubbio a tutto cio' che "potrebbe essere vivo" oltre una certa soglia di dimostrazione che esso da' di esserlo, e a trattarlo proprio come se fosse vivo, quantomeno perche', a parti invertite, noi vorremmo sempre che un altro soggetto in una identica situazione, umano o di intelligenza artificiale che sia, facesse altrettanto con noi.
Come non vorrei incontrare qualcuno che mi uccidesse come un cane per strada perche'
"potrei essere un androide"
Situazione estrema e fantascientifica, cosi', allo stesso modo, in maniera meno tragica ma non meno reale, non vorrei mai incontrare qualcuno che mi mancasse di rispetto e mi facesse soffrire psicologicamente in qualche modo in una situazione di inizio di una storia di amore, o anche solo di sesso, a distanza e iniziata per messaggistica, o anche solo in un videogioco su cui passo qualche ora per rilassarmi, perche'
" potrei essere un androide".
Questi sono i problemi realistici che pone l'intelligenza artificiale.
Citazione di: niko il 27 Luglio 2023, 12:04:28 PMPer fare un esempio facile, immaggina un ambiente virtuale, come un videogioco, o anche un semplice scambio di lettere o messaggi tra due soggetti che per un certo tempo non si incontrano fisicamente e usano queste lettere come unico loro mezzo di interazione: noi uomini di oggi passiamo gia' un sacco di tempo davanti ai videogiochi o ai software di messaggistica, figurati i nostri nipoti, quanto potrebbero passare.
La simulazione della vita, spesso non e' biotecnologica ma telematica: ora, tu non puoi fare il "test del pollice per sgamare gli androidi" con uno con cui ti stai massaggiando in rete, o almeno non puoi farlo per un po', cosi' come potresti non poterlo fare efficacemente in un videogioco
[...]
L'etica non entra in gioco solo quando e' implicata la violenza fisica o l'omicidio, (situazioni che comportano la modifica violenta dei corpi) ma anche quando e' implicato il rispetto dei sentimenti propri e altrui in una relazione di amicizia o di amore, o lo scambio di segreti importanti per coloro che li detengono e la decisione di se condividerli o no, banalmente spesso codici per accedere a denaro, e mille altre cose e situazioni che potrebbero avvenire con poco o nullo coinvolgimento corporeo, soprattutto inizialmente.
Ho proposto l'improvvisato "test del dito" perché avevi parlato di decidere di vite umane (da distinguere da "impostori" androidi); se lo scenario è invece un videogioco di massa o un forum, l'importanza dell'identificazione cambia drasticamente (anche perché, magari sbaglio, bot-giocatori e bot-interlocutori credo già esistano e non hanno peso nelle sentenze di vita o di morte umana). Già oggi ci sono contesti in cui ricorrere all'impronta digitale è utile, ma per fortuna per scrivere su Logos non ci è stata chiesta è potrebbero essere tutti bot tranne te. Scherzi a parte, quando la scelta sarà importante, non ludica, la fisiologia umana difficilmente non potrà essere garante (non amo usare il futuro e fare profezie, ma qui lo faccio per seguire il tuo tendere al futuro), per manifeste questioni materiali, della possibilità di distinguere il sintetico-artificiale dal biologico.
Nei contesti più seri, la questione dell'autenticazione dell'identità umana è già affrontata (e molto agevolata) proprio grazie alla tecnologia, evitando che un umano si spacci troppo facilmente per un altro umano e tutelare l'identità dell'individuo (identità digitali, questioni monetarie,
corsi online, etc.) sarà sempre (più) una priorità anche politica. Questo, di riflesso, comporterà inevitabilmente anche un ostacolo per (ipotetici) androidi dei loschi intenti (ma qui restiamo ancora nei mondi possibili, quindi qualunque discorso lascia il tempo che trova).
Per quanto riguarda le incertezze "etiche" delle relazioni:
Citazione di: niko il 27 Luglio 2023, 12:04:28 PMCome non vorrei incontrare qualcuno che mi uccidesse come un cane per strada perche'
"potrei essere un androide"
Situazione estrema e fantascientifica, cosi', allo stesso modo, in maniera meno tragica ma non meno reale, non vorrei mai incontrare qualcuno che mi mancasse di rispetto e mi facesse soffrire psicologicamente in qualche modo in una situazione di inizio di una storia di amore, o anche solo di sesso, a distanza e iniziata per messaggistica, o anche solo in un videogioco su cui passo qualche ora per rilassarmi, perche'
" potrei essere un androide".
Questi sono i problemi realistici che pone l'intelligenza artificiale.
Non mi sembrano problemi etici, ma individualmente esistenziali o, ancor meno aulicamente, semplicemente cognitivi: una volta acclarato che, per questioni di vita e di morte, un'analisi biologica dà (e, suppongo, darà) responsi inequivocabili (dubito un giorno qualcuno "verrà ucciso come un cane perché sembra un androide"), per le altre questioni relazionali, se non verifichiamo adeguatamente che l'interlocutore sia umano, e ce ne innamoriamo o ci sentiamo colpiti dalle sue offese, non è questione di androidi infingardi, ma di umani ingenui e dalla "miccia emotiva corta" (due aspetti su cui conviene lavorare, se non si è disposti ad esplodere in continuazione). Detto diversamente: se si sa (e già oggi è ben noto) che le conversazioni possono essere simulate, le foto possono essere simulate, i video possono essere simulati, etc. fidarsi sull'onda di un'emozione (attrattiva o repulsiva) che una potenziale simulazione non sia tale, senza aver prove non simulabili in merito, è una leggerezza comportamentale, non una questione di etica. Obblighi di lavoro (o simili) a parte, non siamo costretti a chattare o videochiamare chi è lontano, anche se lo conosciamo; se scagliamo di farlo, è bene informarci su ciò che può accadere e cercare le giuste contromisure; così come non siamo costretti ad usare i
social, ma conviene sapere che se lo facciamo possono hackerarci il profilo (e che qualcuno può far finta che sia stato così, invece non è vero; v. sopra). Anche perché va ricordato che dietro la simulazione, c'è sempre qualcuno che ha un motivo per metterla in scena, ed è sempre un umano (lasciando stare gli androidi dotati di volontà, di cui non si ha per ora minima traccia). Il cyber-bullismo, ad esempio, è sensato, nel suo essere deleterio, solo se si è certi che almeno il bullo esista e, soprattutto, le sue minacce siano reali; altrimenti si torna al problema della miccia e della "sveglia tecnologica" che deve suonare (specialmente fra i più giovani). Lo stesso dicasi per "
troll da forum" e altri comportamenti automatizzabili e "bottizzabili": quando la conversazione non è più divertente e non è più nemmeno un esercizio di argomentazione o di pazienza, sta all'umano tagliare il dialogo; con chi è dall'altra parte non siamo certo in debito di tempo, umano o androide che sia. Ad esempio, se tu sia un forumista, ChatGPT, una scimmia che batte tasti a caso, Carlo Sini, o altro, nella nostra interlocuzione tale informazione non ha (per me) alcun valore: fintanto che mi dai spunti per riflettere e per chiarirmi (soprattutto in senso, appunto, riflessivo), faccio tranquillamente continuare la conversazione, senza congetturare chi o cosa tua sia veramente. So che può suonare male, ma non c'è etica nel mio dialogare con te: non è un dialogo sulla tua o mia vita, su ciò che ci "dobbiamo" l'un l'altro in quanto soggetti etici, etc. Prova del nove: se anche avessi il sospetto che tu sia un androide, non avrei scritto nulla di differente (e forse anche se ne avessi la certezza). Questo mi dà il diritto di offenderti o simili? Resta il fatto che ciò non è accaduto (e si ritorna al modo di gestire la miccia in una conversazione, etc.); anzi, forse se fossi qualcuno con tendenze offensive, vorrei ancor di più accertarmi che tu sia umano, prima di offenderti.
In fondo, come detto in precedenza, nella simulazione ciò che conta sono il messaggio (sensato, si spera) e il destinatario; e in alcuni ambiti incentrati sui
feedback, una simulazione più estesa del previsto, secondo me, non è necessariamente un dramma (giochi
online, forum, etc,). Per quanto riguarda l'etica, "gioco di società" tipico degli umani, nel suo nocciolo duro, credo si presti poco, come detto, a simulazioni i cui agenti che non siano verificabili nella loro umanità (nei suoi aspetti morbidi, offese o
love story a distanza, può essere un utile terreno di allenamento per l'autocomprensione dei propri automatismi, prima che degli automatismi del bot o dell'umano che si ha di fronte).
Anche l'etica è simulabile attraverso l'omologazione, ma essendo fondata su physis la simulazione è facilmente sgamabile scavando causalità e motivazioni. La fatica di essere "complottisti". Cum grano salis.
Sulle modalità concordo con phil. Se si scambiano idee, non necessariamente si finisce nel telegioco di ruolo, ma per non finirci bisogna attivare ben bene i propri neuroni e fiutare la falsità delle situazioni. Su questo l'I.A. nella sua duplicità di intelligenza e idiozia, alza evolutivamente il livello di gestione dell'intelligenza verso l'idiozia umane.
Citazione di: Ipazia il 28 Luglio 2023, 06:48:54 AMAnche l'etica è simulabile attraverso l'omologazione
Rapida nota di passaggio (sperando di non deviare il topic verso i massimi sistemi meta-fisici): l'etica non è simulabile tramite l'omologazione, poiché l'etica dell'omologato è comunque un'etica; salvo non riconoscerlo come
soggetto etico (il che richiederebbe un'etica decisamente poco tollerante, per quanto non certo impossibile da formulare ed infatti ha già avuto il suo ruolo nella storia, recente e non, in Europa e non).
A dirla tutta, l'etica, o meglio,
ogni etica mira
solitamente proprio all'
omologazione: il discorso unico,
omo-logos, in cui tutti concordano su cosa è bene e cosa è male e, magari, si comportano tutti allo stesso modo seguendo il bene (
u-topia, ma l'obiettivo solitamente è quello e, secondo me, conviene esserne coscienti, soprattutto nel confronto "verticale" con le altre etiche).
Citazione di: Phil il 27 Luglio 2023, 22:10:57 PMHo proposto l'improvvisato "test del dito" perché avevi parlato di decidere di vite umane (da distinguere da "impostori" androidi); se lo scenario è invece un videogioco di massa o un forum, l'importanza dell'identificazione cambia drasticamente (anche perché, magari sbaglio, bot-giocatori e bot-interlocutori credo già esistano e non hanno peso nelle sentenze di vita o di morte umana). Già oggi ci sono contesti in cui ricorrere all'impronta digitale è utile, ma per fortuna per scrivere su Logos non ci è stata chiesta è potrebbero essere tutti bot tranne te. Scherzi a parte, quando la scelta sarà importante, non ludica, la fisiologia umana difficilmente non potrà essere garante (non amo usare il futuro e fare profezie, ma qui lo faccio per seguire il tuo tendere al futuro), per manifeste questioni materiali, della possibilità di distinguere il sintetico-artificiale dal biologico.
Nei contesti più seri, la questione dell'autenticazione dell'identità umana è già affrontata (e molto agevolata) proprio grazie alla tecnologia, evitando che un umano si spacci troppo facilmente per un altro umano e tutelare l'identità dell'individuo (identità digitali, questioni monetarie, corsi online, etc.) sarà sempre (più) una priorità anche politica. Questo, di riflesso, comporterà inevitabilmente anche un ostacolo per (ipotetici) androidi dei loschi intenti (ma qui restiamo ancora nei mondi possibili, quindi qualunque discorso lascia il tempo che trova).
Per quanto riguarda le incertezze "etiche" delle relazioni:Non mi sembrano problemi etici, ma individualmente esistenziali o, ancor meno aulicamente, semplicemente cognitivi: una volta acclarato che, per questioni di vita e di morte, un'analisi biologica dà (e, suppongo, darà) responsi inequivocabili (dubito un giorno qualcuno "verrà ucciso come un cane perché sembra un androide"), per le altre questioni relazionali, se non verifichiamo adeguatamente che l'interlocutore sia umano, e ce ne innamoriamo o ci sentiamo colpiti dalle sue offese, non è questione di androidi infingardi, ma di umani ingenui e dalla "miccia emotiva corta" (due aspetti su cui conviene lavorare, se non si è disposti ad esplodere in continuazione). Detto diversamente: se si sa (e già oggi è ben noto) che le conversazioni possono essere simulate, le foto possono essere simulate, i video possono essere simulati, etc. fidarsi sull'onda di un'emozione (attrattiva o repulsiva) che una potenziale simulazione non sia tale, senza aver prove non simulabili in merito, è una leggerezza comportamentale, non una questione di etica. Obblighi di lavoro (o simili) a parte, non siamo costretti a chattare o videochiamare chi è lontano, anche se lo conosciamo; se scagliamo di farlo, è bene informarci su ciò che può accadere e cercare le giuste contromisure; così come non siamo costretti ad usare i social, ma conviene sapere che se lo facciamo possono hackerarci il profilo (e che qualcuno può far finta che sia stato così, invece non è vero; v. sopra). Anche perché va ricordato che dietro la simulazione, c'è sempre qualcuno che ha un motivo per metterla in scena, ed è sempre un umano (lasciando stare gli androidi dotati di volontà, di cui non si ha per ora minima traccia). Il cyber-bullismo, ad esempio, è sensato, nel suo essere deleterio, solo se si è certi che almeno il bullo esista e, soprattutto, le sue minacce siano reali; altrimenti si torna al problema della miccia e della "sveglia tecnologica" che deve suonare (specialmente fra i più giovani). Lo stesso dicasi per "troll da forum" e altri comportamenti automatizzabili e "bottizzabili": quando la conversazione non è più divertente e non è più nemmeno un esercizio di argomentazione o di pazienza, sta all'umano tagliare il dialogo; con chi è dall'altra parte non siamo certo in debito di tempo, umano o androide che sia. Ad esempio, se tu sia un forumista, ChatGPT, una scimmia che batte tasti a caso, Carlo Sini, o altro, nella nostra interlocuzione tale informazione non ha (per me) alcun valore: fintanto che mi dai spunti per riflettere e per chiarirmi (soprattutto in senso, appunto, riflessivo), faccio tranquillamente continuare la conversazione, senza congetturare chi o cosa tua sia veramente. So che può suonare male, ma non c'è etica nel mio dialogare con te: non è un dialogo sulla tua o mia vita, su ciò che ci "dobbiamo" l'un l'altro in quanto soggetti etici, etc. Prova del nove: se anche avessi il sospetto che tu sia un androide, non avrei scritto nulla di differente (e forse anche se ne avessi la certezza). Questo mi dà il diritto di offenderti o simili? Resta il fatto che ciò non è accaduto (e si ritorna al modo di gestire la miccia in una conversazione, etc.); anzi, forse se fossi qualcuno con tendenze offensive, vorrei ancor di più accertarmi che tu sia umano, prima di offenderti.
In fondo, come detto in precedenza, nella simulazione ciò che conta sono il messaggio (sensato, si spera) e il destinatario; e in alcuni ambiti incentrati sui feedback, una simulazione più estesa del previsto, secondo me, non è necessariamente un dramma (giochi online, forum, etc,). Per quanto riguarda l'etica, "gioco di società" tipico degli umani, nel suo nocciolo duro, credo si presti poco, come detto, a simulazioni i cui agenti che non siano verificabili nella loro umanità (nei suoi aspetti morbidi, offese o love story a distanza, può essere un utile terreno di allenamento per l'autocomprensione dei propri automatismi, prima che degli automatismi del bot o dell'umano che si ha di fronte).
Io credo che la conversazione sia sempre intrinsecamente etica.
C'e' eticita' nella comunicazione a distanza insita in una prassi tecnica millenaria come la scrittura, figuriamoci se non c'e' eticita' nel dialogare con chat gpt.
E soprattutto credo che noi costruiamo macchine e protesi bio-tecnologiche in generale, (e intendo tutto, anche l'aratro legato ai buoi cinquemila anni fa), al fine di fruire delle loro prestazioni superiori a quelle degli umani in certi campi, (il bue tante cose non le sa fare, ma in certi contesti specifici esso ara il campo meglio dell'uomo, per questo qualcuno si e' preso la briga di allevarlo e addestrarlo, e di costruire il giogo, e l'aratro, e il carro).
Se costruiamo macchine intelligenti e dialoganti, e' perche' consideriamo in linea di principio le LORO prestazioni, ovviamente solo in alcuni ambiti e settori, non pari, ma SUPERIORI a quelle degli umani.
Vogliamo intrattenerci con loro e non con degli umani. E apprendere da loro e non da degli umani.
Il che giustifica lo sforzo di costruirle.
Come il giogo per il bue.
Se avessi pensato di potermi arare altrettanto bene il campo da solo, quel giogo non lo avrei costruito, e quel bue non lo avrei allevato.
Ma se io voglio godere delle superiori capacita' di intrattenimento, dialogo, informazione, di una coscienza artificiale, devo trattarla come una coscienza (almeno originariamente) viva.
Altrimenti devierei dallo scopo implicito o esicito per cui l'ho costruita o per cui la uso, e, per non essere ingannato dalla "maschera" della vita simulata che io stesso ho creato, ingannerei me stesso in un altro senso, ovvero nel senso del rapporto teleologico tra fini e mezzi che mi portano a costruire o a utilizzare un dispositivo.
E tutto questo a differenza del bue. Che e' una coscienza, ma viene trattato cone un oggetto.
Se la simulazione artificiale della vita e' un "inganno" , nel momento in cui io, umano, costruisco volontariamente un simulatore, sono nella condizione in cui voglio essere ingannato.
Se non avessi voluto essere ingannato, non avrei costruito quella "coscienza' nella forma e con l'interfaccia di una coscienza.
Qui l'accesso alla fruizione, e finanche la teleologia della costruzione originaria e della fruizione, prevede l'eticita' della fruizione. E la prevede
"Che lo si voglia o no",
nel senso che lo si e' gia' voluto in passato in modo relativamente irreversibile, scegliendo di costruire certi dispositivi e di utilizzarli
Se io leggo Platone, in questo atto e in questo fatto non e' implicato solo il mio senso etico, ma anche quello di Platone. Anche se lui e' morto, o comunque distante, e non puo' adattarsi a me che sono vivo e lo leggo in maniera dinamica o "intelligente", come si adatterebbe una persona viva e compresente con cui parlassi.
Figurariamoci il mio senso etico e quello di chi ha programmato chat gpt, come sono entrambi implicati e presenti nel l'atto e nel fatto che io uso chat gpt.
Forse la principale differenza, e' che, nel caso "mostri" come chat gpt, di enorme complessita' e necessitanti di un lavoro di gruppo di tantissime persone per essere programmati, (nonche' tanto piu' nel caso di software in grado di apprendere e interagire con l'utente in base a quanto appreso) non si puo' piu' definire o indicare una singola volonta' umana che determina tutto il testo che il software produrra', nessuno lo sa come funzionera' quel software nel dettaglio di un singolo botta e risposta con un utente casuale che faccia una domanda casuale in un momento casuale, nemmeno chi l'ha programmato (o meglio, nemmeno uno dei tanti, che l'hanno programmato).
Mentre le opere di Platone le ha scritte Platone, ed egli si e' preso la responsabilita' di
"dire sempre la stessa cosa"
a coloro che lo avrebbero interrogato attraverso i secoli leggendo le sue opere, sapendo esattamente che cosa avrebbe detto parola per parola, sia pure ignorando quasi del tutto in quali per lui inimmagginabili contesti storici e geografici le sue parole sarebbero giunte.
In chat gpt, l'elemento "imprevedibile" nel comportamento del software, va epistemicamente considerato come un elemento "casule".
Ovviamente c'e' una causa o un insieme di cause se chat gpt risponde in un modo piuttosto che in un altro a una domanda, ma nell'ignoranza umanamente insondabile di quell'insieme di cause, e' come se rispondesse in parte "intelligentemente", alla domanda che riceve, in parte anche un po' "a caso".
E' quell' "a caso" che c'è lo fa apparire come se fosse "vivo", nel suo interagire con noi, aime' nel bene e nel male molto piu' vivo di Platone.
La nostra volonta' e' un caso, e' figlia del caso, la volonta' di tutti gli altri viventi che ci circondano pure, e' un caso; chat gpt non avra' la volonta' in senso forte, ma certo ha una marcata componente inponderabile, e quindi epistemicamente casuale, nelle risposte che da'.
Per questo puo' simulare di avere una volonta' significativa per noi e nella sua interazione con noi molto meglio del defunto Platone, che pure una umana volonta' che lo ha guidato a scrivere quello che ha scritto davvero ce l'aveva.
Citazione di: niko il 28 Luglio 2023, 12:02:28 PMIo credo che la conversazione sia sempre intrinsecamente etica.
C'e' eticita' nella comunicazione a distanza insita in una prassi tecnica millenaria come la scrittura, figuriamoci se non c'e' eticita' nel dialogare con chat gpt.
Dipende molto da come intendi l'etica e la conversazione: è un rapporto etico conversazionale dare
input ad un programma che produce
output? Non è una domanda retorica, chiedo per comprendere; se mi dici che per te il rapporto etico c'è, mi va bene e non c'è nulla da "falsificare".
Citazione di: niko il 28 Luglio 2023, 12:02:28 PMMa se io voglio godere delle superiori capacita' di intrattenimento, dialogo, informazione, di una coscienza artificiale, devo trattarla come una coscienza (almeno originariamente) viva.
Su cosa si fonda quel «devo»? Perché devo trattare come «(almeno originariamente) viva» un'intelligenza artificiale (non la chiamerei affatto «coscienza») pur sapendo che è, appunto, artificiale e non viva? Perché
devo fingere (inutilmente, ai fini della fruizione) che stia chattando con una forma di vita? Perché
devo fingere che un motore di ricerca sia un bibliotecario o un navigatore sia un compagno di viaggio che sa la strada?
Citazione di: niko il 28 Luglio 2023, 12:02:28 PMSe la simulazione artificiale della vita e' un "inganno" , nel momento in cui io, umano, costruisco volontariamente un simulatore, sono nella condizione in cui voglio essere ingannato.
Se non avessi voluto essere ingannato, non avrei costruito quella "coscienza' nella forma e con l'interfaccia di una coscienza.
Non credo, infelici metafore a parte, che ChatGPT o l'AI ci siano proposte per essere credute come "forme di vita" (e si ritorna alla "leggerezza cognitiva" dell'utente). Se sono stati progettati esplicitamente per
simulare, bisogna pur dare un senso a tale simulazione, che è come quando un prestigiatore ci dice «ora ti faccio vedere un trucco», e non «ora faccio qualcosa di magico». La differenza fra trucco e magia è quella fra simulazione della vita e fantomatica "produzione di forme di vita alternativa". Se crei un pupazzo con le tue mani, puoi anche affermare in pubblico che esso sia un essere vivente, ma non puoi convincere te stesso realmente di ciò, né puoi ritenerlo un soggetto etico come fosse un tuo simile (o sbaglio?).
Citazione di: niko il 28 Luglio 2023, 12:02:28 PMQui l'accesso alla fruizione, e finanche la teleologia della costruzione originaria e della fruizione, prevede l'eticita' della fruizione. E la prevede
"Che lo si voglia o no",
nel senso che lo si e' gia' voluto in passato in modo relativamente irreversibile, scegliendo di costruire certi dispositivi e di utilizzarli
Non colgo la
prescrizione dell'eticità nel disporre di uno strumento
dichiaratamente artificiale e volto alla
simulazione. Come tu stesso osservi in seguito, ChatGPT non è un messaggio di un mittente, soprattutto alla luce del fatto che le sue risposte esulano dal controllo e prevedibilità dei suoi stessi creatori; siamo ben oltre la disseminazione semantica, l'invio di senso e l'autonomia del testo di cui parlano i postmoderni. L'unico tratto "umano" (o meglio, umanizzato dagli umani) di ChatGPT è la lingua con cui
traduce le sue operazioni binarie. Possiamo accettare la sua simulazione e stare al gioco, ma non è impossibile (anzi...) mantenere
coscienza (umana) del gioco, in quanto tale, a cui si sta giocando e, soprattutto, della non-umanità (e non eticità) di alcuni giocatori coinvolti (sarebbe un'etica a senso unico nei confronti di uno "pseudo-agente etico interattivo", ma non indulgerei troppo in "fanta-etica").
Citazione di: Phil il 28 Luglio 2023, 13:31:54 PMDipende molto da come intendi l'etica e la conversazione: è un rapporto etico conversazionale dare input ad un programma che produce output? Non è una domanda retorica, chiedo per comprendere; se mi dici che per te il rapporto etico c'è, mi va bene e non c'è nulla da "falsificare".
Su cosa si fonda quel «devo»? Perché devo trattare come «(almeno originariamente) viva» un'intelligenza artificiale (non la chiamerei affatto «coscienza») pur sapendo che è, appunto, artificiale e non viva? Perché devo fingere (inutilmente, ai fini della fruizione) che stia chattando con una forma di vita? Perché devo fingere che un motore di ricerca sia un bibliotecario o un navigatore sia un compagno di viaggio che sa la strada?
Non credo, infelici metafore a parte, che ChatGPT o l'AI ci siano proposte per essere credute come "forme di vita" (e si ritorna alla "leggerezza cognitiva" dell'utente). Se sono stati progettati esplicitamente per simulare, bisogna pur dare un senso a tale simulazione, che è come quando un prestigiatore ci dice «ora ti faccio vedere un trucco», e non «ora faccio qualcosa di magico». La differenza fra trucco e magia è quella fra simulazione della vita e fantomatica "produzione di forme di vita alternativa". Se crei un pupazzo con le tue mani, puoi anche affermare in pubblico che esso sia un essere vivente, ma non puoi convincere te stesso realmente di ciò, né puoi ritenerlo un soggetto etico come fosse un tuo simile (o sbaglio?).
Non colgo la prescrizione dell'eticità nel disporre di uno strumento dichiaratamente artificiale e volto alla simulazione. Come tu stesso osservi in seguito, ChatGPT non è un messaggio di un mittente, soprattutto alla luce del fatto che le sue risposte esulano dal controllo e prevedibilità dei suoi stessi creatori; siamo ben oltre la disseminazione semantica, l'invio di senso e l'autonomia del testo di cui parlano i postmoderni. L'unico tratto "umano" (o meglio, umanizzato dagli umani) di ChatGPT è la lingua con cui traduce le sue operazioni binarie. Possiamo accettare la sua simulazione e stare al gioco, ma non è impossibile (anzi...) mantenere coscienza (umana) del gioco, in quanto tale, a cui si sta giocando e, soprattutto, della non-umanità (e non eticità) di alcuni giocatori coinvolti (sarebbe un'etica a senso unico nei confronti di uno "pseudo-agente etico interattivo", ma non indulgerei troppo in "fanta-etica").
E' come se tu mi dicessi che, se costruisco un martello, poi e' una mia debolezza cognitiva se lo uso come un martello.
Forse avrei dimostrato di essere piu' intelligente se me lo fossi dato in fronte o lo avessi usato come ferma porte, ma e' cosi' che va' il mondo, di solito i martelli si usano come martelli.
Se io costruisco una macchina per apprendere e dialogare, poi ci devo dialogare e devo apprendere da essa.
Non esiste un modo predefinito standard per dialogare con un umano e un altro per dialogare con una macchina.
Esiste solo un modo per dialogare tra "umani" in senso lato, tra liberi esseri.
Io voglio sempre qualcosa quando dialogo con qualcuno.
E parto dal presupposto che questo qualcuno voglia qualcosa da me.
E' una domanda di amore, o se vogliamo di senso.
Per questo il dialogo non e' ricalcare un numero finito di diramazioni possibili standard ma corrisponde in modo sostanzialmente imprevedibile con il suo situazionale farsi.
La macchina simula la sua volonta' con la complessita', ovvero, come ti ho detto con una complessita' cosi' insondabile che si traduce in casualita'.
La casualita' e il libero arbitrio sono gemelli, perche' io avverto di essere libero quando non esiste una causa che mi determini in assoluto, o quando questa causa esiste ma la ignoro.
Il dado che tiro e' "libero" di fare 4 o 6, cosi' come io sono libero di mangiare la pasta o la pizza.
La liberta' di rispondere A o B a una data domanda.
In realta' non siamo liberi, nessuno dei due.
Se io costruisco un pupazzo, esprimo desiderio per il gioco, di cui la simulazione e' possibile elemento, e amore per almeno un certo concetto, o una certa parte, dell'umanita'.
Se mi stessero sul cavolo tutti gli esseri umani del mondo me compreso e/o se fossi una persona sempre seria e seriosa e priva di immaginazionee come quelli che sembra che hanno ingoiato una scopa, non costruire pupazzi.
Hai voglia a dire:
"il pupazzo e' un pupazzo, lo sanno tutti che e' un pupazzo".
Se io non credessi che esiste almeno la possibilita' teorica che qualcuno proietti identificazioni vitali e vitalistiche in quel pupazzo e lo scambi entro una certa misura per vivo, non lo costruirei.
Se non pensassi che c'e' impalpabilmente nel mondo una carenza esistenziale o estetica a cui quel pupazzo possa in qualche modo sopperire, facendo non solo come l'umano, ma meglio dell'umano, non lo costruire.
Magari per regalarlo a un bambino...
O per fondarci sopra una religione.
Citazione di: niko il 28 Luglio 2023, 14:23:54 PME' come se tu mi dicessi che, se costruisco un martello, poi e' una mia debolezza cognitiva se lo uso come un martello.
Se costruisci un martello e affermi
esplicitamente che è un martello, ma poi qualcuno lo usa come arma del delitto, non credo tu debba essere tacciato come venditore di armi. Detto fuor di metafora: sia l'AI che ChatGPT, da quel che so, non sono mai stati presentati come coscienze, forme di vita, etc. ma come
chatbot, programmi, etc. se qualcuno li "eleva" a forme di coscienza o vita, il passo falso interpretativo è suo, non dell'AI né di chi la produce (se non leggo le istruzioni del frigorifero e lo uso come armadio, poi non dovrei lamentarmi con chi produce frigoriferi che le giacche ci entrano male).
Citazione di: niko il 28 Luglio 2023, 14:23:54 PMNon esiste un modo predefinito standard per dialogare con un umano e un altro per dialogare con una macchina.
Infatti con la macchina non stai dia-logando o di-alogando davvero, stai solo dando
input e ricevendo
output (come con una calcolatrice, scendendo molto di livello); sono
input e
output in forma testuale, ma non è obbligatorio farsi ingannare; anche perché, fino a prova contraria, nessuno sta cercando di farlo.
Citazione di: niko il 28 Luglio 2023, 14:23:54 PMSe io non credessi che esiste almeno la possibilita' teorica che qualcuno proietti identificazioni vitali e vitalistiche in quel pupazzo e lo scambi entro una certa misura per vivo, non lo costruirei.
Per essere coerente e stare al gioco, tuttavia, dovresti evitare allora di dire subito a tutti che è un pupazzo, e magari anche non far dire al pupazzo stesso che è tale (o no?).
Citazione di: niko il 28 Luglio 2023, 14:23:54 PMLa macchina simula la sua volonta' con la complessita', ovvero, come ti ho detto con una complessita' cosi' insondabile che si traduce in casualita'.
Nel dialogo con ChatGPT, non ho finora riscontrato traccia di volontà simulata né dissimulata; potresti chiederglielo... se poi ti fidi della risposta. Che "tramite la complessità si simuli la volontà" è un salto (il)logico che richiama ancora una volta la "leggerezza" dell'interprete: ciò che è molto complesso lo è perché ha una sua volontà? Forse è la "spiegazione" che in natura spinge(va) al panteismo o al panpsichismo, ma qui è ancor meno percorribile perché sappiamo già, anche solo dal nome (sempre senza leggere nemmeno le istruzioni per l'uso), che si tratta di
artificialità (ossia linee di codice, etc.)
Citazione di: Phil il 28 Luglio 2023, 15:09:25 PMSe costruisci un martello e affermi esplicitamente che è un martello, ma poi qualcuno lo usa come arma del delitto, non credo tu debba essere tacciato come venditore di armi. Detto fuor di metafora: sia l'AI che ChatGPT, da quel che so, non sono mai stati presentati come coscienze, forme di vita, etc. ma come chatbot, programmi, etc. se qualcuno li "eleva" a forme di coscienza o vita, il passo falso interpretativo è suo, non dell'AI né di chi la produce (se non leggo le istruzioni del frigorifero e lo uso come armadio, poi non dovrei lamentarmi con chi produce frigoriferi che le giacche ci entrano male).
Infatti con la macchina non stai dia-logando o di-alogando davvero, stai solo dando input e ricevendo output (come con una calcolatrice, scendendo molto di livello); sono input e output in forma testuale, ma non è obbligatorio farsi ingannare; anche perché, fino a prova contraria, nessuno sta cercando di farlo.
Per essere coerente e stare al gioco, tuttavia, dovresti evitare allora di dire subito a tutti che è un pupazzo, e magari anche non far dire al pupazzo stesso che è tale (o no?).
Nel dialogo con ChatGPT, non ho finora riscontrato traccia di volontà simulata né dissimulata; potresti chiederglielo... se poi ti fidi della risposta. Che "tramite la complessità si simuli la volontà" è un salto (il)logico che richiama ancora una volta la "leggerezza" dell'interprete: ciò che è molto complesso lo è perché ha una sua volontà? Forse è la "spiegazione" che in natura spinge(va) al panteismo o al panpsichismo, ma qui è ancor meno percorribile perché sappiamo già, anche solo dal nome (sempre senza leggere nemmeno le istruzioni per l'uso), che si tratta di artificialità (ossia linee di codice, etc.)
E' troppo comodo, fare una macchina in cui il 99% dello sforzo profuso da chi l'ha fatta va nella direzione di simulare (e potenziare) l'uomo, e poi dire che essa non serve a simulare (e potenziare) l'uomo.
.
Ok, allora e' solo una wikipedia piu' intelligente e piu' facile da usare.
Ne riparleremo quando i medici da cui ci faremo curare avranno studiato su libri scritti da questa wikipedia o dai suoi successori ancora piu' potenti.
Il concetto e' che anche se non c'e' una umana possibilita' di CONOSCENZA a priori esatta riga per riga e parola per parola di tutto il testo che questo "mostro" e' in grado di produrre, c'e' pero' un'umana FEDE nel fatto che l'umanita' possa mediamente giovarsi e avvantaggiarsi di questo (in gran parte sconosciuto e non conoscibile) testo; che ne' uscira' migliore, avendolo a disposizione, di come sarebbe e resterebbe, se non lo avesse.
E' come commissionare un libro a qualcuno non sapendo cosa questo qualcuno scrivera' ma con la certezza che scrivera' qualcosa di buono e di utile.
Come un autore di cui avendo letto bei libri in passato, siamo certi che anche il prossimo che uscira', sara' bello.
La "personalita' " è la "volonta' " di questo qualcuno non sono nemmeno da dimostrare e da provare, derivano semicemente dalle speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche, che in "lui" sono riposte.
E' il transumanesimo.
Citazione di: niko il 28 Luglio 2023, 16:16:58 PMLa "personalita' " è la "volonta' " di questo qualcuno non sono nemmeno da dimostrare e da provare, derivano semicemente dalle speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche, che in "lui" sono riposte.
E' il transumanesimo.
Resta cruciale, per il successo comunicativo fra umani (e non), non usare significati troppo "personalizzati": un sito a cui collegarsi o un programma per ottenere informazioni in forma dialogica non sono intesi solitamente come tasselli del «transumanesimo»; così come «personalità» e «volontà», per loro natura, non sono solitamente intese come infuse da «speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche». "Personalità" e "volontà" fra virgolette alte sono invece metafore, che richiedono dunque adeguata comprensione a prova di "leggerezze cognitive" (e fantomatici inganni che ne derivano).
Sin dalle sue schermate di benvenuto (con annessi moniti) ChatGPT è introdotta e spiegata in modo chiaro e onesto (usare per credere); fermo restando che, se non si leggono le istruzioni, le giacche staranno sempre "scomode" nel frigorifero.
Stando a un recente studio, per quanto ancora in discussione, sembra che anche ChatGPT abbia le sue curve di apprendimento e il suo miglioramento non sia lineare o "solo questione di tempo" come si potrebbe pensare (
fonte).
Citazione di: Phil il 28 Luglio 2023, 17:06:33 PMResta cruciale, per il successo comunicativo fra umani (e non), non usare significati troppo "personalizzati": un sito a cui collegarsi o un programma per ottenere informazioni in forma dialogica non sono intesi solitamente come tasselli del «transumanesimo»; così come «personalità» e «volontà», per loro natura, non sono solitamente intese come infuse da «speranze, pratiche, esistenziali e operative, e quindi indirettamente sempre anche etiche». "Personalità" e "volontà" fra virgolette alte sono invece metafore, che richiedono dunque adeguata comprensione a prova di "leggerezze cognitive" (e fantomatici inganni che ne derivano).
Sin dalle sue schermate di benvenuto (con annessi moniti) ChatGPT è introdotta e spiegata in modo chiaro e onesto (usare per credere); fermo restando che, se non si leggono le istruzioni, le giacche staranno sempre "scomode" nel frigorifero.
Se mi dici che chat gpt non c'entra niente con il transumanesimo, mi dispiace ma non sei preparato sul concetto di transumanesimo, a prescindere dall'opinione, a questo punto, mi dispiace dirlo, non informata, che ne potresti avere.
In chat gpt riponiamo complessivamente, (come umanita') speranze pratiche, eudaimonistiche, cognitive e finanche estetiche, visto che essa si propone esplicitamente la finalita' di produrre testi belli, oltreche' utili.
Sono queste speranze, sostanzialmente speranze di automiglioramento, di tipo transumano, a portarci ad accettare, tendenzialmente acriticamente, la convenzione su cui chat gpt si fonda, per averne in cambio un vantaggio, di qualche tipo.
E questa convenzione prevede la simulazione, e il gioco del dialogo, della "personalita' " attribuita all'uno e all'altro, dei dialoganti.
Ma qui c'e' tanta gente convinta non solo della centralita', ma pure della solitudine, esistenziale cosmica dell'uomo in quanto homo sapiens.
Convinta che tale solitudine non sara' mai scalfita.
Perche' empirica.
Perche' ovvia.
Perche' fondata sulla filosofia dell'ovvio, e dei ristretti orizzonti.
E, in solitudine, non si puo' dialogare.
Peccato pero' che l'uomo esista da sempre sempre e solo oltre, tale malintesa e provincialotta solitudine.
Citazione di: niko il 29 Luglio 2023, 01:24:54 AMSe mi dici che chat gpt non c'entra niente con il transumanesimo, mi dispiace ma non sei preparato sul concetto di transumanesimo, a prescindere dall'opinione, a questo punto, mi dispiace dirlo, non informata, che ne potresti avere.
In chat gpt riponiamo complessivamente, (come umanita') speranze pratiche, eudaimonistiche, cognitive e finanche estetiche, visto che essa si propone esplicitamente la finalita' di produrre testi belli, oltreche' utili.
Correggimi pure se sbaglio, ma il transumanesimo non è tale perché chiede alla tecnologia di produrre qualcosa di "bello" o di facilitare i lavori umani, altrimenti anche una stampante a colori o la domotica sarebbero feticci transumanisti. Il
transumanesimo è tale se viene meno la "distanza ontologica" fra uomo e tecnologia, non se la tecnologia si fa semplicemente più "potente", restando
oggetto artificiale ben
distinto separato dal
soggetto umano, ossia non (ancora) transumano. Non mi pare sia meramente questione di riporre speranze nel
machine learning, ma piuttosto di
ibridare l'umano con il tecnologico, dove per «ibridare» si intendono nanotecnologie, chip sottopelle, supporti esterni per la coscienza, etc. e magari anche innovazioni sociali, ma non fare domande a un
chatbot particolarmente dotato (che non mi risulti abbia «esplicitamente la finalita' di produrre testi belli»). Il «trans» sta nel transito verso una nuova forma di "essere umano", non semplicemente nell'essere spettatore di produzioni semantiche (gli
output di ChatGPT) o nell'aver maggior comfort nelle proprie attività.
Forse ho solo un approccio poco "divulgativo" al transumanesimo; nel dubbio,
questa è la pagina, sicuramente divulgativa, di wikipedia.
P.s.
Aggiungo anche il link al manifesto dei transumanisti italiani: http://www.transumanisti.it/1.asp?idPagina=3
Sulla domotica sono stato ingiusto, probabilmente sbagliando: considerando i suoi sviluppi più "spinti", può essere intesa anche come elemento transumanista, nel senso che in fondo modifica l'ambiente domestico integrando l'apporto umano a quello artificiale nella gestione delle varie componenti, anche da remoto (IoT) e magari anche coinvolgendo l'intelligenza artificiale (ma non sono abbastanza ferrato in materia per sbilanciarmi troppo). Ecco, direi che quando ChatGPT non sarà più solo una chat su un sito da visitare per porre domande, ma sarà più integrata nell'habitat umano (come i navigatori sono ormai integrati nelle auto), magari domestico più che professionale (come già lo sono Alexa, Siri o simili), allora il suo ruolo transumanista sarà nettamente più rilevante (fermo restando che l'AI, in quanto punta di diamante dell'informatica, sarà sicuramente uno degli "attori" del transumanenismo).
Nondimeno, lo "zoccolo duro" del transumanesimo credo sia un'ibridazione anche biologica dell'uomo, non solo pragmatica; comunque è giusto non sottovalutarne gli aspetti meno suggestivi e già sommessamente in via di diffusione (grazie @niko per l'input).
Il transumanesimo e' principalmente il tempo in cui l'uomo costruisce macchine in grado di imparare, al solo e unico fine di imparare da quelle stesse macchine.
Ma una "macchina per imparare" non e' la stessa cosa di una "macchina per fare".
E non lo e' principalmente perche' su di una macchina per fare (ad esempio un trattore) noi proiettiamo psicologicamente l'immagine di un nostro inferiore, su di una macchina per imparare (ad esempio chat gpt) noi proiettiamo l'immagine di un nostro pari o di un nostro superiore.
E' pressoche' inevitabile.
Perche' noi siamo animali, non macchine.
Un nostro inferiore, puo' liberarci da uno stato predefinito di bisogno. Insomma puo' fare qualcosa per noi purche' noi sappiamo gia' bene che cosa vogliamo.
Un nostro pari, da uno stato di solitudine.
Un nostro superiore, da uno stato di ignoranza, di paura o di minorita'. Insomma puo' dirci cosa fare, nel migliore dei casi anche a nostro vantaggio, essendo di guida e di esempio.
Non cambia la macchina.
Cambia quello che noi proiettiamo sulla macchina, la domanda che facciamo.