Cito dall'articolo: «desiderare ciò che va oltre quello che la macchina può darci, perché è lei parte di noi non noi parte di lei».
Qui l'autore, a mio avviso, "inciampa": la risposta dell'IA, che lo ha spinto a chiedersi: «a che servo io, insegnante?», non è autenticamente dell'IA; l'IA non è un autore, né di pedagogia né di autentiche riflessioni; quella risposta è solo l'elaborazione ("filtrare, consultare e sintetizzare" è il motto dei chatbot AI) di numerosi testi scritti da umani. Quando l'IA elenca quelle metodologie, quelle buone prassi, quegli stratagemmi didattici, non è perché li ha davvero pensati "lei" (che non pensa e non è intelligente, al netto di infelici metafore), ma è "tutta farina del sacco" di autori umani, che hanno scritto i testi su cui l'AI è stata addestrata. Come dire: il cane che mi porta il giornale, non è l'autore del giornale e non capisce nemmeno il senso di ciò che c'è scritto, però me lo porta "bene". Tocca a me leggerlo, rifletterci ed agire di conseguenza. Quindi non è lei parte di noi, ma siamo noi parte di lei, nel senso che lei è stata addestrata su ciò che noi abbiamo prodotto (e quindi "siamo"); noi le abbiamo dato un imprinting che talvolta ci dimentichiamo di considerare attentamente quando la vediamo come un agente "quasi umano" e le assegniamo doti che in realtà sono solo nostre, sebbene lei, in quanto surrogato dei nostri paradigmi, sappia riprodurle in modo efficace (un giradischi che riproduce una risata, sta davvero ridendo?).
Recentemente si parla di AI che hanno "ricattato" dei ricercatori o che si sono "rifiutate" di spegnersi... dove avranno mai imparato un comportamento del genere? Il ricatto, il rifiuto, etc. sono totalmente assenti nel "materiale didattico" su cui sono state addestrate? Inevitabilmente no. Non è forse vero che sin dall'inizio il principale cruccio dei programmatori è stato impostare filtri stringenti affinché le AI non dicessero nulla di sconveniente, razzista, violento, pericoloso, etc.? Si stanno quindi davvero ribellando? Per saperlo dobbiamo capire (o semplicemente ricordare a noi stessi) se quell'AI è davvero un luminare di didattica, se può davvero prendere il posto di un docente, oppure ci ha solo portato il giornale perché è quello a cui l'abbiamo addestrata (anche ammettendo, con onestà, che riesce, per sua "natura", a portarcelo "meglio", ossia più velocemente e saltando più ostacoli, di quanto saprebbe fare un umano).
Qui l'autore, a mio avviso, "inciampa": la risposta dell'IA, che lo ha spinto a chiedersi: «a che servo io, insegnante?», non è autenticamente dell'IA; l'IA non è un autore, né di pedagogia né di autentiche riflessioni; quella risposta è solo l'elaborazione ("filtrare, consultare e sintetizzare" è il motto dei chatbot AI) di numerosi testi scritti da umani. Quando l'IA elenca quelle metodologie, quelle buone prassi, quegli stratagemmi didattici, non è perché li ha davvero pensati "lei" (che non pensa e non è intelligente, al netto di infelici metafore), ma è "tutta farina del sacco" di autori umani, che hanno scritto i testi su cui l'AI è stata addestrata. Come dire: il cane che mi porta il giornale, non è l'autore del giornale e non capisce nemmeno il senso di ciò che c'è scritto, però me lo porta "bene". Tocca a me leggerlo, rifletterci ed agire di conseguenza. Quindi non è lei parte di noi, ma siamo noi parte di lei, nel senso che lei è stata addestrata su ciò che noi abbiamo prodotto (e quindi "siamo"); noi le abbiamo dato un imprinting che talvolta ci dimentichiamo di considerare attentamente quando la vediamo come un agente "quasi umano" e le assegniamo doti che in realtà sono solo nostre, sebbene lei, in quanto surrogato dei nostri paradigmi, sappia riprodurle in modo efficace (un giradischi che riproduce una risata, sta davvero ridendo?).
Recentemente si parla di AI che hanno "ricattato" dei ricercatori o che si sono "rifiutate" di spegnersi... dove avranno mai imparato un comportamento del genere? Il ricatto, il rifiuto, etc. sono totalmente assenti nel "materiale didattico" su cui sono state addestrate? Inevitabilmente no. Non è forse vero che sin dall'inizio il principale cruccio dei programmatori è stato impostare filtri stringenti affinché le AI non dicessero nulla di sconveniente, razzista, violento, pericoloso, etc.? Si stanno quindi davvero ribellando? Per saperlo dobbiamo capire (o semplicemente ricordare a noi stessi) se quell'AI è davvero un luminare di didattica, se può davvero prendere il posto di un docente, oppure ci ha solo portato il giornale perché è quello a cui l'abbiamo addestrata (anche ammettendo, con onestà, che riesce, per sua "natura", a portarcelo "meglio", ossia più velocemente e saltando più ostacoli, di quanto saprebbe fare un umano).