Ανήσυχος και αγχωμένος εμφανίστηκε την περασμένη εβδομάδα ο CEO της OpenAI, Σαμ Άλτμαν, σε μία συνέντευξή του όπου απάντησε σε μια πληθώρα ηθικών και δεοντολογικών ερωτήσεων σχετικά με την εταιρεία του και το δημοφιλές μοντέλο τεχνητής νοημοσύνης ChatGPT.
Μετά την υπόθεση αυτοκτονίας ενός 16χρονου εφήβου από την Καλιφόρνια και την μήνυση που κατέθεσαν οι γονείς του στην Open AI και τον CEO, Σαμ Άλτμαν, υποστηρίζοντας ότι το chatgpt τον ενθάρρυνε να αυτοκτονήσει, έχουν δημιουργηθεί πολλά ερωτήματα για το αν το αυτό είναι τόσο ασφαλές όσο θα έπρεπε.
ΔΙΑΦΗΜΙΣΗ
Σε μία συνέντευξή του ο Σαμ Άλτμαν εκμυστηρεύτηκε κάποιες ανησυχίες του, ενώ μίλησε γενικότερα για τις λειτουργίες του chatgpt σχετικά με τις ηθικές ανησυχίες που υπάρχουν. «Κοιτάξτε, δεν κοιμάμαι και πολύ καλά τη νύχτα. Υπάρχουν πολλά πράγματα που με βαραίνουν, αλλά πιθανώς τίποτα περισσότερο από το γεγονός ότι κάθε μέρα, εκατοντάδες εκατομμύρια άνθρωποι μιλούν στο μοντέλο μας», είπε ο Altman στον πρώην παρουσιαστή του Fox News, Tucker Carlson, σε μια συνέντευξη που διήρκεσε σχεδόν μία ώρα.
«Στην πραγματικότητα, δεν ανησυχώ ότι θα λάβουμε λάθος ηθικές αποφάσεις», είπε ο Altman, αν και παραδέχτηκε ότι «ίσως και αυτές να είναι λάθος».
Αντίθετα, είπε ότι χάνει τον περισσότερο ύπνο του για τις «πολύ μικρές αποφάσεις» σχετικά με τη συμπεριφορά του μοντέλου, οι οποίες τελικά μπορούν να έχουν μεγάλες επιπτώσεις. Αυτές οι αποφάσεις τείνουν να επικεντρώνονται στην ηθική που διέπει το ChatGPT και στις ερωτήσεις που απαντά και δεν απαντά το chatbot.
ΔΙΑΦΗΜΙΣΗ
Ποια είναι όμως τα δεοντολογικά διλήμματα που φαίνεται να κρατούν τον Altman ξύπνιο τη νύχτα;
Πώς αντιμετωπίζει το ChatGPT την αυτοκτονία;
Σύμφωνα με τον Άλτμαν, το πιο δύσκολο ζήτημα με το οποίο ασχολείται η εταιρεία πρόσφατα είναι ο τρόπος με τον οποίο το ChatGPT αντιμετωπίζει την αυτοκτονία, υπό το φως μιας αγωγής από μια οικογένεια που κατηγόρησε το chatbot για την αυτοκτονία του έφηβου γιου τους.
Ο διευθύνων σύμβουλος είπε ότι από τους χιλιάδες ανθρώπους που αυτοκτονούν κάθε εβδομάδα, πολλοί από αυτούς θα μπορούσαν ενδεχομένως να είχαν μιλήσει με το ChatGPT πριν από την αυτοκτονία τους.
«Πιθανότατα μίλησαν για (αυτοκτονία) και πιθανότατα δεν σώσαμε τις ζωές τους», είπε ειλικρινά ο Άλτμαν. «Ίσως θα μπορούσαμε να είχαμε πει κάτι καλύτερο. Ίσως θα μπορούσαμε να ήμασταν πιο προληπτικοί. Ίσως θα μπορούσαμε να είχαμε δώσει λίγο καλύτερες συμβουλές, όπως, «έλα, χρειάζεσαι αυτή τη βοήθεια».
Μετά και την υπόθεση με την αυτοκτονία του 16χρονου, μια ανάρτηση στο blog με τίτλο «Βοηθώντας τους ανθρώπους όταν το έχουν περισσότερο ανάγκη», η OpenAI παρουσίασε λεπτομερώς τα σχέδιά της για την αντιμετώπιση των ελλείψεων του ChatGPT κατά τη διαχείριση «ευαίσθητων καταστάσεων» και δήλωσε ότι θα συνεχίσει να βελτιώνει την τεχνολογία της για την προστασία των ανθρώπων που βρίσκονται σε πιο ευάλωτη θέση.
Πώς καθορίζεται η ηθική του ChatGPT;
Ένα άλλο σημαντικό θέμα που συζητήθηκε στην συνέντευξη ήταν η ηθική και η δεοντολογία που διέπουν το ChatGPT και τους διαχειριστές του.
Ενώ ο Άλτμαν περιέγραψε το βασικό μοντέλο του ChatGPT ως εκπαιδευμένο με βάση τη συλλογική εμπειρία, γνώση και μάθηση της ανθρωπότητας, είπε ότι η OpenAI πρέπει στη συνέχεια να ευθυγραμμίσει ορισμένες συμπεριφορές του chatbot και να αποφασίσει ποιες ερωτήσεις δεν θα απαντά.
«Αυτό είναι ένα πραγματικά δύσκολο πρόβλημα. Έχουμε πολλούς χρήστες τώρα, και προέρχονται από πολύ διαφορετικές προοπτικές ζωής… Αλλά συνολικά, έχω εκπλαγεί ευχάριστα με την ικανότητα του μοντέλου να μαθαίνει και να εφαρμόζει ένα ηθικό πλαίσιο».
Όταν ρωτήθηκε για το πώς αποφασίζονται ορισμένες προδιαγραφές του μοντέλου, ο Altman είπε ότι η εταιρεία είχε συμβουλευτεί «εκατοντάδες ηθικούς φιλοσόφους και ανθρώπους που σκέφτονται για την ηθική της τεχνολογίας και των συστημάτων».
Ένα παράδειγμα που έδωσε για μια προδιαγραφή του μοντέλου ήταν ότι το ChatGPT θα αποφεύγει να απαντά σε ερωτήσεις σχετικά με τον τρόπο κατασκευής βιολογικών όπλων, εάν του ζητηθεί από τους χρήστες.
«Υπάρχουν σαφή παραδείγματα όπου τα συμφέροντα της κοινωνίας έρχονται σε σημαντική αντίθεση με την ελευθερία των χρηστών», είπε ο Altman, αν και πρόσθεσε ότι η εταιρεία «δεν θα τα κάνει όλα σωστά και χρειάζεται επίσης τη συμβολή του κόσμου» για να βοηθήσει στη λήψη αυτών των αποφάσεων.
Πόσο ιδιωτικό μπορεί να είναι το ChatGPT;
Ένα άλλο μεγάλο θέμα συζήτησης ήταν η έννοια της ιδιωτικότητας των χρηστών σε σχέση με τα chatbots, με τον δημοσιογράφο να υποστηρίζει την ώρα της συνέντευξης ότι η γενετική τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για «ολοκληρωτικό έλεγχο».
Σε απάντηση, ο Altman είπε ότι ένα μέτρο πολιτικής που προωθεί στην Ουάσινγκτον είναι το «προνόμιο της τεχνητής νοημοσύνης», το οποίο αναφέρεται στην ιδέα ότι οτιδήποτε λέει ένας χρήστης σε ένα chatbot πρέπει να είναι απολύτως εμπιστευτικό.
«Όταν μιλάτε σε έναν γιατρό για την υγεία σας ή σε έναν δικηγόρο για τα νομικά σας προβλήματα, η κυβέρνηση δεν μπορεί να αποκτήσει αυτές τις πληροφορίες, σωστά;… Νομίζω ότι πρέπει να έχουμε την ίδια έννοια για την τεχνητή νοημοσύνη».
Σύμφωνα με τον Altman, αυτό θα επέτρεπε στους χρήστες να συμβουλεύονται τα chatbots τεχνητής νοημοσύνης σχετικά με το ιατρικό ιστορικό και τα νομικά τους προβλήματα, μεταξύ άλλων. Επί του παρόντος, οι αμερικανικές αρχές μπορούν να κλητεύσουν την εταιρεία για τα δεδομένα των χρηστών, πρόσθεσε.
«Νομίζω ότι είμαι αισιόδοξος ότι μπορούμε να κάνουμε την κυβέρνηση να κατανοήσει τη σημασία αυτού», είπε.
Θα μπορεί να χρησιμοποιηθεί το ChatGPT σε στρατιωτικές επιχειρήσεις;
Όταν ο δημοσιογράφος τον ρώτησε αν το ChatGPT θα χρησιμοποιηθεί από το στρατό για να βλάψει ανθρώπους, ο Άλτμαν δεν έδωσε άμεση απάντηση.
«Δεν ξέρω πώς χρησιμοποιούν το ChatGPT οι στρατιωτικοί σήμερα… αλλά υποψιάζομαι ότι πολλοί στρατιωτικοί μιλούν στο ChatGPT για να ζητήσουν συμβουλές».
Αργότερα, πρόσθεσε ότι δεν ήταν σίγουρος «πώς ακριβώς να αισθανθεί για αυτό».
Η OpenAI ήταν μία από τις εταιρείες τεχνητής νοημοσύνης που έλαβε σύμβαση ύψους 200 εκατομμυρίων δολαρίων από το Υπουργείο Άμυνας των ΗΠΑ για να εφαρμόσει τη γενετική τεχνητή νοημοσύνη στο αμερικανικό στρατό. Η εταιρεία δήλωσε σε μια ανάρτηση στο blog της ότι θα παρέχει στην αμερικανική κυβέρνηση πρόσβαση σε προσαρμοσμένα μοντέλα τεχνητής νοημοσύνης για την εθνική ασφάλεια, υποστήριξη και πληροφορίες σχετικά με το χρονοδιάγραμμα των προϊόντων.
Πόσο ισχυρό είναι το OpenAI;
Ο δημοσιογράφος, στη συνέντευξή του, προέβλεψε ότι, με βάση την τρέχουσα πορεία του, το γενετικό AI και, κατ’ επέκταση, ο Sam Altman, θα μπορούσαν να συγκεντρώσουν περισσότερη δύναμη από οποιονδήποτε άλλο, φτάνοντας στο σημείο να αποκαλέσει το ChatGPT «θρησκεία».
Σε απάντηση, ο Άλτμαν είπε ότι στο παρελθόν ανησυχούσε πολύ για τη συγκέντρωση εξουσίας που θα μπορούσε να προκύψει από τη γενετική τεχνητή νοημοσύνη, αλλά τώρα πιστεύει ότι η τεχνητή νοημοσύνη θα οδηγήσει σε «μια τεράστια αναβάθμιση» όλων των ανθρώπων