@green demetr
Non so se hai avuto la pazienza di leggere il mio ultimo lungo post; comunque provo a sintetizzare:
- non è la macchina a decidere, anche se così appare esteriormente, perché essa agisce secondo programmi scritti e decisi da umani (e l'apprendere delle AI mi pare ancora troppo formalizzato, troppo poco interpretante e plastico per essere paragonato ad una acerba ragione umana); per cui non si tratta di paventare che la giurisprudenza si applichi anche alle macchine in quanto "soggetti" giuridici; il piano è infatti etico molto più che giuridico
- la questione è realmente etica nel momento in cui il programmatore, o chi per lui, deve impartire ordini alla macchina in caso di situazione etica critica: l'auto, per voce di chi la progetta o chi la userà, "chiede" «cosa devo fare se c'è un ostacolo dietro una curva e secondo i miei calcoli non posso fermarmi in tempo, ma posso percorrere una traiettoria che salvaguarda il mio passeggero, uccidendo però un altro umano sul marciapiede?». A questo quesito etico, a differenza di ogni guidatore umano, il programmatore deve impostare adesso una risposta (la programmazione è l'a priori dell'AI), che determini il comportamento dell'auto in quell'eventualità. Si tratta di una necessità di programmazione reale e non procrastinabile, a cui seguiranno eventualmente conseguenze non solo reali, ma persino vitali.
Si può poi sperare che le auto a guida autonoma non vengano mai usate; eppure, intanto, vengono di fatto sperimentate e programmate, per cui la questione posta non mi pare irreale o fantasiosa (inoltre, come già detto, mette l'etica con le spalle al muro, per cui è filosoficamente più cogente, per me, di quella dell'archè o altre)
- l'uomo si sta "robotizzando" dall'invenzione della stampa a caratteri mobili di Gutemberg; adesso le macchine non si stanno affatto umanizzando (secondo me), ma diventa sempre più evidente che con l'aumentare della potenza tecnologica aumenta anche la radicalità delle questioni, soprattutto etiche, che vengono sollevate dalla tecnologia (aggiornamento del tema della technè già in risalto nel '900). Certamente c'è una connessione fra tecnologia e mercato; la principale è che il tempo per riflettere su queste problematiche è sempre poco perché è il mercato (fatto da uomini) a non aver pazienza (lui è al galoppo mentre la filosofia trotterella, dicevo). Se la riflessione filosofica vuole direzionare l'"agire etico" di tali dispositivi (in cui siamo sempre più immersi, fino all'abitarci dentro, v. IoT etc.), deve cercare di stare al passo con i loro stadi di prevendita, perché modifiche successive possono essere tardive o allungare ulteriormente i loro tempi di applicazione (ad altre questioni filosofiche, magari con minor impatto nelle vite umane, sono consentiti dalla prassi sociale tempi più lunghi).
Non so se hai avuto la pazienza di leggere il mio ultimo lungo post; comunque provo a sintetizzare:
- non è la macchina a decidere, anche se così appare esteriormente, perché essa agisce secondo programmi scritti e decisi da umani (e l'apprendere delle AI mi pare ancora troppo formalizzato, troppo poco interpretante e plastico per essere paragonato ad una acerba ragione umana); per cui non si tratta di paventare che la giurisprudenza si applichi anche alle macchine in quanto "soggetti" giuridici; il piano è infatti etico molto più che giuridico
- la questione è realmente etica nel momento in cui il programmatore, o chi per lui, deve impartire ordini alla macchina in caso di situazione etica critica: l'auto, per voce di chi la progetta o chi la userà, "chiede" «cosa devo fare se c'è un ostacolo dietro una curva e secondo i miei calcoli non posso fermarmi in tempo, ma posso percorrere una traiettoria che salvaguarda il mio passeggero, uccidendo però un altro umano sul marciapiede?». A questo quesito etico, a differenza di ogni guidatore umano, il programmatore deve impostare adesso una risposta (la programmazione è l'a priori dell'AI), che determini il comportamento dell'auto in quell'eventualità. Si tratta di una necessità di programmazione reale e non procrastinabile, a cui seguiranno eventualmente conseguenze non solo reali, ma persino vitali.
Si può poi sperare che le auto a guida autonoma non vengano mai usate; eppure, intanto, vengono di fatto sperimentate e programmate, per cui la questione posta non mi pare irreale o fantasiosa (inoltre, come già detto, mette l'etica con le spalle al muro, per cui è filosoficamente più cogente, per me, di quella dell'archè o altre)
- l'uomo si sta "robotizzando" dall'invenzione della stampa a caratteri mobili di Gutemberg; adesso le macchine non si stanno affatto umanizzando (secondo me), ma diventa sempre più evidente che con l'aumentare della potenza tecnologica aumenta anche la radicalità delle questioni, soprattutto etiche, che vengono sollevate dalla tecnologia (aggiornamento del tema della technè già in risalto nel '900). Certamente c'è una connessione fra tecnologia e mercato; la principale è che il tempo per riflettere su queste problematiche è sempre poco perché è il mercato (fatto da uomini) a non aver pazienza (lui è al galoppo mentre la filosofia trotterella, dicevo). Se la riflessione filosofica vuole direzionare l'"agire etico" di tali dispositivi (in cui siamo sempre più immersi, fino all'abitarci dentro, v. IoT etc.), deve cercare di stare al passo con i loro stadi di prevendita, perché modifiche successive possono essere tardive o allungare ulteriormente i loro tempi di applicazione (ad altre questioni filosofiche, magari con minor impatto nelle vite umane, sono consentiti dalla prassi sociale tempi più lunghi).