άρθρο από την έντυπη έκδοση
Οι τρεις νόμοι της ρομποτικής είναι κανόνες, στους οποίους υπακούν τα περισσότερα ρομπότ με ποζιτρονικό εγκέφαλο που εμφανίζονται στα έργα επιστημονικής φαντασίας του συγγραφέα Ισαάκ Ασίμωφ, ενώ χρήση τους έχουν κάνει και άλλοι δημιουργοί επιστημονικής φαντασίας. Οι νόμοι αυτοί πρωτοδιατυπώθηκαν από τον Ισαάκ Ασίμωφ στο διήγημα “Runaround” (1942) και είναι οι εξής:
1. Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον.
2. Το ρομπότ πρέπει να υπακούει τις διαταγές που του δίνουν οι άνθρωποι, εκτός αν αυτές οι διαταγές έρχονται σε αντίθεση με τον πρώτο νόμο.
3. Το ρομπότ οφείλει να προστατεύει την ύπαρξή του, εφόσον αυτό δεν συγκρούεται με τον πρώτο και τον δεύτερο νόμο.
Κι αν όλα αυτά το 1942 ήταν επιστημονική φαντασία, σήμερα, τεχνολογικά, έχουμε φτάσει ήδη στο επίπεδο όπου η τεχνητή νοημοσύνη λαμβάνει αποφάσεις στους τομείς των επιχειρήσεων, της υγειονομικής περίθαλψης και των κατασκευών. Ωστόσο, ακόμη, οι αλγόριθμοι τεχνητής νοημοσύνης εξακολουθούν να εξαρτώνται από την ανθρώπινη παρέμβαση, η οποία έχει και την ευθύνη της τελικής απόφασης.
Τι θα συνέβαινε όμως, εάν τα συστήματα τεχνητής νοημοσύνης έπρεπε να πάρουν από μόνα τους αποφάσεις, που θα αφορούσαν ζητήματα ζωής ή θανάτου για τους ανθρώπους; Σε αντίθεση με μας, τα ρομπότ δεν διαθέτουν ηθική συνείδηση, απλά ακολουθούν την «ηθική» με την οποία έχουν προγραμματιστεί. Ταυτόχρονα, η ανθρώπινη ηθική είναι ιδιαίτερα ευμετάβλητη. Το τι είναι «σωστό» ή «λάθος», ανά πάσα στιγμή εξαρτάται από αυτόν που θέτει το ερώτημα.Για να μας βοηθήσουν οι μηχανές στο μέγιστο των δυνατοτήτων τους, πρέπει να βεβαιωθούμε ότι συμπεριφέρονται με ηθικό τρόπο. Το ερώτημα που τίθεται λοιπόν είναι: πώς επηρεάζει η ηθική των προγραμματιστών τις αποφάσεις που λαμβάνονται από την τεχνητή νοημοσύνη; Φανταστείτε ένα μέλλον με αυτοκαθοδηγούμενα, πλήρως αυτόνομα οχήματα. Εάν όλα λειτουργούν κανονικά, τότε οι καθημερινές μετακινήσεις στην πόλη θα είναι ευκαιρία για λίγο ακόμη ύπνο, για προετοιμασία της επόμενης συνάντησης ή για ενημέρωση. Τι θα γίνει όμως αν κάποια στιγμή τα πράγματα στραβώσουν; Αν την ώρα που το αυτοκίνητο πλησιάζοντας το κόκκινο φανάρι, χαλάσουν τα φρένα; Τότε ο υπολογιστής θα πρέπει να πάρει μια απόφαση σε κλάσματα δευτερολέπτου. Θα πρέπει να ρίξει το όχημα στην πιο κοντινή κολώνα, σκοτώνοντας τον επιβάτη, ή να συνεχίσει, σκοτώνοντας τον πεζό που περνάει αμέριμνος το φανάρι;
Ο υπολογιστής που ελέγχει το αυτοκίνητο θα έχει πρόσβαση στις πληροφορίες που παίρνει από τους αισθητήρες του και θα πρέπει να αποφασίσει με βάση αυτές και μόνο. Όσο δραματικό κι αν φαίνεται, σε πολύ λίγα χρόνια αυτό το δίλημμα θα πρέπει να αντιμετωπιστεί. Σίγουρα τα αυτόνομα οχήματα θα κάνουν ασφαλέστερη την οδήγηση, ωστόσο, αναπόφευκτα θα υπάρχουν και ατυχήματα, ιδιαίτερα στο άμεσο μέλλον όταν θα συνυπάρχουν στο δρόμο, πεζοί αλλά και οδηγοί μη αυτόνομων οχημάτων.
Η Tesla αν και δεν παράγει ακόμη πλήρως αυτόνομα αυτοκίνητα, σύντομα σκοπεύει να το κάνει. Σήμερα, όταν επίκειται ένα τρακάρισμα, τα αυτοκίνητα Tesla απενεργοποιούν το σύστημα αυτόματου φρεναρίσματος, δίνοντας τον έλεγχο στον οδηγό, ακόμη κι αν αυτό αυξάνει τις πιθανότητες για τη σύγκρουση. Το μόνο που κάνει είναι να ειδοποιεί τον οδηγό για να αναλάβει δράση.
Σε λειτουργία «αυτόματου πιλότου», ωστόσο, το αυτοκίνητο θα πρέπει να φρενάρει από μόνο του για να προστατέψει τους πεζούς. Κάποιοι μάλιστα υποστηρίζουν ότι, εάν το αυτοκίνητο μπορεί να αποτρέψει μια σύγκρουση, τότε υπάρχει ηθική υποχρέωση να παρακάμψει τις ενέργειες του οδηγού σε κάθε σενάριο. Είμαστε όμως διατεθειμένοι να μεταβιβάσουμε αυτή την εξουσία στις μηχανές;
Τι θα γινόταν αν ο υπολογιστής ενός αυτοκινήτου μπορούσε να αξιολογήσει τη σχετική «αξία» της ζωής του επιβάτη και του πεζού; Αν του δίναμε αυτή την εξουσιοδότηση, τότε τελικά η απόφαση θα ήταν αποτέλεσμα μιας ανάλυσης κόστους – οφέλους. Αυτό μπορεί να ακούγεται παρατραβηγμένο, όμως υπάρχουν ήδη τεχνολογίες που θα μπορούσαν να το επιτρέψουν. Το (πρόσφατα μετονομασθέν σε Meta) Facebook παρέχει ένα εξαιρετικά εξελιγμένο σύστημα αναγνώρισης προσώπου που μπορεί εύκολα να αναγνωρίσει τα άτομα σε έναν χώρο.
Εάν αυτά τα δεδομένα ενσωματώνονταν στο σύστημα τεχνητής νοημοσύνης ενός αυτόνομου οχήματος, ο αλγόριθμος θα μπορούσε να κοστολογήσει κάθε ανθρώπινη ζωή σε χρήμα. Άλλη αξία έχει ένας άστεγος, άλλη ένας γιατρός, άλλη ένα στέλεχος επιχείρησης. Τα αποτελέσματα μιας τέτοιας αξιολόγησης, εμφανίστηκαν σε μια μεγάλη μελέτη που πραγματοποίησε το Ινστιτούτο Τεχνολογίας της Μασαχουσέτης πριν από τρία χρόνια. Συγκεκριμένα, σε ένα πείραμα που ονόμασαν «Μηχανική Ηθική», οι ερευνητές έθεσαν διάφορα σενάρια αυτοοδηγούμενων αυτοκινήτων και ανάγκασαν τους συμμετέχοντες να αποφασίσουν αν θα σκοτώσουν έναν άστεγο ή ένα στέλεχος επιχείρησης. Τα αποτελέσματα αποκάλυψαν ότι οι επιλογές των συμμετεχόντων εξαρτιόνταν από το επίπεδο οικονομικής ανισότητας στη χώρα τους, όπου μεγαλύτερη οικονομική ανισότητα σήμαινε ότι ήταν πιο πιθανό να θυσιάσουν τον άστεγο!
Αν και δεν έχει εξελιχθεί ακόμη πλήρως, ένα παρόμοιο σύστημα ισχύει στην Κίνα όπου με βάση τα χαρακτηριστικά του προσώπου πιστοποιείται εάν κάποιος έχει κοινωνική ασφάλιση ή όχι.
Ο κλάδος της υγειονομικής περίθαλψης είναι ένας ακόμη τομέας όπου θα δούμε την τεχνητή νοημοσύνη να λαμβάνει αποφάσεις που θα μπορούσαν να σώσουν ή να βλάψουν τους ανθρώπους. Οι ειδικοί αναπτύσσουν όλο και περισσότερο την τεχνητή νοημοσύνη ώστε να αντιμετωπίζονται ασθένειες μέσω των ιατρικών απεικονίσεων ώστε οι γιατροί να μπορούν να δίνουν την ανάλογη προτεραιότητα στην ιατρική περίθαλψη. Προς το παρόν, οι γιατροί έχουν τον τελευταίο λόγο, αλλά καθώς αυτές οι τεχνολογίες εξελίσσονται όλο και περισσότερο, τι θα συμβεί όταν ένας γιατρός και ο αλγόριθμος τεχνητής νοημοσύνης δεν κάνουν την ίδια διάγνωση;
Τα μη επανδρωμένα αεροσκάφη και τα όπλα που λειτουργούν με τεχνητή νοημοσύνη δημιουργούν επίσης ζητήματα ηθικής, καθώς μπορούν να πάρουν την απόφαση να σκοτώσουν. Υπάρχουν μάλιστα αντικρουόμενες απόψεις σχετικά με το εάν τέτοιες τεχνολογίες πρέπει να απαγορευθούν πλήρως ή να ρυθμιστούν. Για παράδειγμα, η χρήση αυτόνομων ντρόουν μπορεί να περιοριστεί στην επιτήρηση. Κάποιοι ζητούν να προγραμματιστού «ηθικά» τα στρατιωτικά ρομπότ. Αυτό πάλι εγείρει ζητήματα σχετικά με την ευθύνη του προγραμματιστή στην περίπτωση που ένα ντρόουν σκοτώσει κατά λάθος αμάχους.
Οι άνθρωποι πολλές φορές βιώνουν έντονη εσωτερική σύγκρουση όταν πρόκειται να λάβουν αποφάσεις που θα μπορούσαν να αλλάξουν τη ζωή τους. Κατά την αξιολόγηση του τρόπου με τον οποίο αντιδρούμε σε τέτοιες καταστάσεις, μια μελέτη ανέφερε ότι οι επιλογές μπορεί να ποικίλλουν ανάλογα με μια σειρά παραγόντων, όπως η ηλικία, το φύλο και η κουλτούρα του ερωτώμενου.
Έτσι, όταν αναφερόμαστε σε συστήματα τεχνητής νοημοσύνης, οι διαδικασίες εκπαίδευσής τους θα παίξουν κρίσιμο ρόλο στον τρόπο με τον οποίο θα λειτουργούν σε πραγματικές συνθήκες. Ένα σύστημα που θα αναπτυχθεί σε μια χώρα μπορεί να επηρεαστεί από τις απόψεις, την πολιτική, την ηθική και τα ήθη αυτής της χώρας, καθιστώντας το ακατάλληλο για χρήση σε άλλον τόπο και χρόνο.
Αν τα συστήματα αυτά πρόκειται να ελέγξουν ένα αεροπλάνο ή να καθοδηγήσουν έναν πύραυλο, απαιτούνται πολύ υψηλά επίπεδα εμπιστοσύνης με δεδομένα αντιπροσωπευτικά του περιβάλλοντος στο οποίο χρησιμοποιείται.
Και πάντα θα υπάρχουν περιθώρια για σφάλματα. Για παράδειγμα, υπάρχει ένα σύστημα «έξυπνης» συσκευής παροχής κρεμοσάπουνου στις τουαλέτες, η οποία αποδείχθηκε ρατσιστική! Βγάζει σαπούνι μόνο για τους λευκούς κι όχι για τους μαύρους. Κι αυτό γιατί οι προγραμματιστές του δεν προνόησαν να ενσωματώσουν οδηγίες για διαφορετικά χρώματα επιδερμίδας. Φυσικά η εταιρεία δεν είχε καμία τέτοια πρόθεση, αν όμως αυτός ο κώδικας έπρεπε να πάρει απόφαση για το ποιος θα ζήσει και ποιος θα πεθάνει, οι μαύροι δεν θα είχαν καμία τύχη.
Η τεχνητή ευφυία λοιπόν δεν είναι «καλή» ή «κακή». Τα αποτελέσματα που θα έχει στους ανθρώπους θα εξαρτηθούν από την ηθική των προγραμματιστών της. Έτσι, για να αξιοποιηθεί στο έπακρο, θα χρειαστεί να καταλήξουμε σε συναίνεση σχετικά με το τι θεωρούμε «ηθικό».
Κι ενώ οι ιδιωτικές εταιρείες, οι δημόσιοι οργανισμοί και τα ερευνητικά ιδρύματα έχουν τις δικές τους κατευθυντήριες γραμμές περί της ηθικής της τεχνητής νοημοσύνης, τα Ηνωμένα Έθνη συνέστησαν την ανάπτυξη αυτού που αποκαλούν «ένα ολοκληρωμένο παγκόσμιο μέσο καθορισμού προτύπων» για την παροχή ενός παγκόσμιου δεοντολογικού πλαισίου και τη διασφάλιση της προστασίας των ανθρωπίνων δικαιωμάτων.