Moralne dylematy samochodu?

moralne dylematy

 

Sztuczna inteligencja otacza nas coraz bardziej i dziwi coraz mniej. Inteligentne roboty wykonują coraz więcej ludzkich czynności lub pomagają ludziom tam, gdzie jest niebezpiecznie, uciążliwie bądź nużąco. Ostatnio źródłem emocji staje się koncepcja samochodu, który potrafi uczestniczyć w normalnym ruchu drogowym zarówno w mieście, jak i na trasie. Odczytuje znaki, orientuje się na drodze, ocenia sytuację i unika niebezpiecznych sytuacji…

Brzmi może nieco niewiarygodnie, ale prace projektu Google driveless car są już zaawansowane. Może być to przełomowe rozwiązanie dla osób niewidzących lub… fatalnych kierowców.

 

 

W przypadku w pełni autonomicznego samochodu pojawiają się jednak poważne problemy etyczne. Co zrobić, jeśli niebezpieczna sytuacja jest nieunikniona? Narazić pasażerów czy motocyklistę jadącego z przeciwka? Te i inne problemy moralne znane są filozofom od dawna (choćby tzw. dylemat mostku).

Rozważania odnośnie etycznych dylematów robotów nie sposób prowadzić w oderwaniu od zaskakująco dawnych praw robotów sformułowanych przez Isaaca Asimowa jeszcze w 1942 roku. Oto one:

  1. Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Na rozgrzewkę do rozmyślań na temat moralnych dylematów związanych z samojeżdżącymi samochodami można warto zajrzeć do poniższego popularnego artykułu:

Should Robot Cars Be Programmed To Kill You If It Will Save More Lives?

Po rozgrzewce warto zajrzeć tutaj:

dr Patrick Lin, The Ethics of Saving Lives With Autonomous Cars Is Far Murkier Than You Think.

 

Share Button
  • Dorota Bentke

    Ciekawe w obawach przed inteligencją moralną maszyn wydaje mi się to, że ludzie „oceniają” maszyny o wiele surowiej niż ludzi. Pojawia się wiele głosów, że samochody nie powinny jeździć same, bo mogłoby się coś zepsuć/nie zadziałać. Oczywiście tak może się zdarzyć. Zauważyłam jednak tendencję do oceniania takich przypadków jako dyskwalifikujących pomysł „inteligentnych maszyn”. Ta bezosobowość sprawcy budzi niepokój. Wypadek spowodowany przez samochód bezzałogowy budzi większe emocje niż wypadek spowodowany przez człowieka. Można by pomyśleć, że ludzka wina (wynikająca z niedociągnięć, słabych umiejętności, zmęczenia, zaniedbania, nieodpowiedzialności, roztargnienia, brawury, pomyłki itp.) jest lepsza niż, nomen omen, nieludzka.

    • Jakub Gomułka

      To rzeczywiście interesująca uwaga. Ludzie bardziej boją się niesprawnej maszyny niż pijanego kierowcy. Myślę, że to ma głębsze podłoże – bezosobowe fatum (zepsuty automat) jest bardziej przerażające niż okrucieństwo czy bezmyślność istoty intencjonalnej.