Η επανάσταση της τεχνητής νοημοσύνης έφτασε και τώρα βλέπουμε ηγέτες σε κάθε τομέα να στοιχηματίζουν δισεκατομμύρια, για το τι θα ακολουθήσει. Αυτό είναι που κάνει αυτή τη στιγμή  επικίνδυνη. Η μηχανική μάθηση είναι έτοιμη να αναδιαμορφώσει ριζικά το μέλλον των πάντων για καλό και για το κακό, όπως έκανε το Διαδίκτυο πριν από μια γενιά.

Κι όμως, ο μετασχηματισμός που βρίσκεται σε εξέλιξη πιθανότατα θα κάνει το Διαδίκτυο να μοιάζει με απλή άσκηση προθέρμανσης. Η τεχνητή νοημοσύνη έχει την ικανότητα να κλιμακώνει και να διαδίδει όλες τις ανθρώπινες αδυναμίες μας – αδιαφορώντας για τις πολιτικές ελευθερίες και διαιωνίζοντας τον ρατσισμό, την ταξική διαστρωμάτωση και την ανισότητα που ενδημούν στην κοινωνία μας.

Η μηχανική μάθηση μιμείται την ανθρώπινη μάθηση, συνθέτοντας σημεία δεδομένων και εμπειρίες για τη διατύπωση συμπερασμάτων. Στην πορεία, αυτοί οι αλγόριθμοι αναπαράγουν το ανθρώπινο λάθος και την προκατάληψη, συχνά με τρόπους που δεν είναι διακριτοί μέχρι να βρεθούμε μπροστά στις συνέπειες: αφόρητη σκληρότητα, άδικες συλλήψεις και απώλεια της κρίσιμης φροντίδας για πολλές μεινονότητες, μεταξύ άλλων.

Η τεχνητή νοημοσύνη εκπαιδεύεται στα δικά μας (ελαττωματικά) σύνολα ανθρώπινων δεδομένων – ανεξέλεγκτη από ηθική πυξίδα, κοινωνική πίεση ή νομικούς περιορισμούς. Σχεδόν εξ ορισμού, αγνοεί τα θεμελιώδη προστατευτικά κιγκλιδώματα.

Αυτή είναι μια βαθιά δοκιμασία για όλους: τον ιδιωτικό και δημόσιο τομέα και την κοινωνία των πολιτών.

Οι επιχειρήσεις που ερευνούν και αναπτύσσουν τη τεχνητή νοημοσύνη μοιράζονται ένα ισχυρό εργαλείο με ένα κοινό που μπορεί να μην είναι ακόμη έτοιμο να το απορροφήσει ή να το χρησιμοποιήσει υπεύθυνα. Οι κυβερνήσεις είναι ανεπαρκώς εξοπλισμένες για να ρυθμίσουν αυτή την τεχνολογία με τρόπο που να προστατεύει τους ανθρώπους που τη χρησιμοποιούν ή εκείνους που ενδέχεται να εκτοπιστούν από αυτήν. Επίσης, καμία ομάδα δεν αισθάνεται την επείγουσα ανάγκη να καταλάβει ή να συνεργαστεί με την άλλη.

Ήρθε η ώρα λοιπόν, για νέους κανόνες και εργαλεία που παρέχουν μεγαλύτερη διαφάνεια – τόσο στα σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση των συστημάτων τεχνητής νοημοσύνης όσο και στις αξίες που ενσωματώνονται στο λογισμικό λήψης αποφάσεων. Απαιτείται, επίσης, περισσότερη δράση για την αντιμετώπιση της οικονομικής εξάρθρωσης που θα ακολουθήσει τον ταχύ επαναπροσδιορισμό της εργασίας.

Οι προγραμματιστές λογισμικού θα πρέπει να δεσμευτούν για τη συνεχή παρακολούθηση μέσω «αλγοριθμικών κωδώνων κινδύνου» – μοντέλων σχεδιασμένων να εντοπίζουν κακόβουλο περιεχόμενο όπως πχ fake news – και εξωτερικών, ανεξάρτητων ελέγχων των αλγορίθμων τους. Η πρόσφατη δέσμευση του Διευθύνοντος Συμβούλου της OpenAI, Sam Altman, να ανοίξει την έρευνα της εταιρείας σε ανεξάρτητους ελέγχους – καθώς και από την πρόκληση του προς τη βιομηχανία να αποφύγει έναν απερίσκεπτο αγώνα για την κυκλοφορία μοντέλων όσο το δυνατόν γρηγορότερα χωρίς να λαμβάνονται υπόψη οι διαδικασίες ασφαλείας – ειναι ενθαρρυντική.

Οι υπεύθυνοι χάραξης πολιτικής και οι ρυθμιστικές αρχές πρέπει να καλύψουν τη διαφορά για την προστασία της ιδιωτικής ζωής, της ασφάλειας και του ανταγωνισμού. Στις ΗΠΑ, περισσότεροι από τους μισούς υπαλλήλους με διδακτορικά που σχετίζονται με την τεχνητή νοημοσύνη, εργάζονται για ένα μικρο αριθμό επώνυμων εταιρειών.

Οι εκλεγμένοι αντιπρόσωποι σε όλο τον κόσμο θα πρέπει να ξεκινήσουν μια προσπάθεια των κυβερνήσεων για τη δημιουργία ενός ρυθμιστικού πλαισίου που να ταιριάζει στην πρόκληση. Αυτό, θα απαιτούσε ευρεία ενημέρωση του κοινού σε τεχνικά θέματα και εξειδικευμένη τεχνογνωσία. Το Ίδρυμα Ford στις ΗΠΑ καθώς και άλλοι, υποστηρίζουν τις προσπάθειες τοποθέτησης τεχνολόγων σε κυβερνητικά γραφεία, ένα στοιχείο του αυξανόμενου κινήματος: «Τεχνολογία προς το δημόσιο συμφέρον».

Εκτός από την κυβερνητική εποπτεία, η κοινότητα επιχειρηματικών κεφαλαίων και νεοφυών επιχειρήσεων πρέπει να εξελιχθεί – και μάλιστα γρήγορα. Οι επενδυτές δεν μπορούν να βασίζονται σε άλλους για τον μετριασμό των ανεπιθύμητων συνεπειών. Οι επιδιωκόμενες συνέπειες θα πρέπει να στοχευθούν από την αρχή, πράγμα που σημαίνει εις βάθος έρευνες, σχεδιασμό σεναρίων και καθορισμό ορίων, πρίν από κάθε επένδυση. Θα πρέπει επίσης να τεθούν υπεύθυνες κατευθυντήριες γραμμές για την καινοτομία, οι οποίες θα θέσουν τα στάνταρς του τρόπου με τον οποίο ξεκλειδώνονται οι δυνατότητες και θα αποφεύγονται  οι παγίδες αυτής της μετασχηματιστικής τεχνολογίας.

Δεν υπάρχουν πολλοί που να επιθυμούν την αυτοκαταστροφή του καπιταλισμού – γι’ αυτό ο ιδιωτικός τομέας θα πρέπει να διευρύνει τον ορισμό της αξίας, ώστε να περιλαμβάνει τα συμφέροντα όλων των ενδιαφερομένων – και όχι μόνο των μετόχων. Με την επανασύνδεση των μισθών με την αυξανόμενη παραγωγικότητα, οι επιχειρήσεις μπορούν να εξασφαλίσουν ότι τα χρήματα που εισρέουν στις νέες τεχνολογίες προέρχονται πέρα ​​από την τάξη των πλούσιων επενδυτών και ιδρυτών. 

Είναι εφικτό να αναβιώσουν μοντέλα δίκαιης δημιουργίας πλούτου, από την ιδιοκτησία των εργαζομένων μέχρι την κατανομή των κερδών – αρχίζοντας τη μείωση της συγκέντρωσης της δημιουργίας πλούτου σε ένα πολύ μικρό υποσύνολο του εργατικού δυναμικού.

Γνωρίζουμε ότι η νέα τεχνολογία θα ξεριζώσει και θα ανατρέψει. Κάθε εταιρεία που προσπαθεί να χρησιμοποιήσει την τεχνητή νοημοσύνη θα πρέπει να δημιουργήσει δυνατότητες επανεκπαίδευσης για τους ανθρώπους της, ειδικά δεδομένων των τεράστιων ελλείψεων εργατικού δυναμικού που αντιμετωπίζουν οι επιχειρήσεις σε περίπλοκους ρόλους που χρειάζονται εργάτες υψηλής εξειδίκευσης.

Τέλος, οι ηγέτες των επιχειρήσεων πρέπει να σταματήσουν να υποθέτουν ότι μπορούν να καρπωθούν τα κέρδη της αναστάτωσης και στη συνέχεια να εξιλεωθούν μέσω της φιλανθρωπίας. Πολύ συχνά, οι εταιρικοί ηγέτες χρησιμοποιούν τη γλώσσα της φιλανθρωπίας, οπως Εταιρική Κοινωνική Ευθύνη (CSR) και Περιβάλλον – Κοινωνία – Διακυβέρνηση (ESG), για τον μετριασμό των ζημιών στον τομέα των εντυπώσεων, αντί να σχεδιάζουν με πρόθεση από την αρχή.

Η τεχνητή νοημοσύνη δεν είναι απλώς μια άλλη τεχνολογική ανακάλυψη. Αν θέλουμε να επιβιώσουμε από αυτή τη δοκιμασία, ο καθένας πρέπει να δραστηριοποιηθεί διαφορετικά από ό,τι στο παρελθόν.

Πηγή: The Washington Post

ΠΗΓΗ