ΕΚΤΑΚΤΗ ΕΠΙΚΑΙΡΟΤΗΤΑ
Ο άνθρωπος ή τα ροµπότ; - Μέρος 2ο
Ορισµένοι ειδικοί πιστεύουν ότι η τεχνητή νοηµοσύνη θα απειλήσει κυρίως τα ανειδίκευτα επαγγέλµατα, ενώ τα ειδικευµένα και µε περισσότερη κατάρτιση πιθανόν να ωφεληθούν, όπως και έγινε από τη δεκαετία του ’70 µέχρι και σήµερα
Οι πολιτικές της καραντίνας και του επιβεβληµένου προσωρινού εγκλεισµού (lockdown), που εφαρµόστηκαν κατά την τριετή επέλαση του κορονοϊού (2020-2022), αποδείχτηκε ότι αύξησαν τις διαδικασίες του ψηφιακού µετασχηµατισµού στην παραγωγή και στις ηλεκτρονικές πωλήσεις, ενώ η τεχνητή νοηµοσύνη (Artifi cial Intelligence ή A.I.) φαίνεται ότι έπαιξε µεγάλο ρόλο σε αυτές τις εξελίξεις.
Γι’ αυτό και ο Σαµ Ολτµαν, διευθύνων σύµβουλος της startup OpenΑΙ, επισηµαίνει πως το µεγάλο θέµα µας δεν είναι η προσωρινή παύση της παγκόσµιας οικονοµίας, αλλά η επέλαση της τεχνητής νοηµοσύνης και του αυτοµατισµού. ∆ιότι, ναι µεν, τις βιοµηχανίες µπορεί να τις συµφέρει η αυτοµατοποίηση, καθώς οι αυτοµατισµοί θα δουλεύουν ασταµάτητα, χωρίς απεργίες ή επιδόµατα, αλλά εµείς, οι άνεργοι πλέον και, ως εκ τούτου, «νεόπτωχοι», θα κρεµόµαστε από το εγγυηµένο εισόδηµα. Αλλά τι είναι εγγυηµένο σε αυτήν τη ζωή, για να φανταστούµε ότι θα υπάρχει ένα εγγυηµένο εισόδηµα για τον κάθε έναν νεόπτωχο άνθρωπο; Η λύση για ένα εγγυηµένο βασικό εισόδηµα και µια διά βίου µάθηση φάνηκε ενδιαφέρουσα, όπως τέθηκε µέσα στην πανδηµία.
Αλλά σκεφτείτε τι θα τη χρειαζόµαστε τη διά βίου µάθηση. Για ποια εργασία θα µελετάµε διαρκώς;
Είµαστε ενάντια στην τεχνολογία; Φυσικά και όχι, αλλά είµαστε υπέρ της αξιοπρεπούς συνέχισης της ζωής µας. Η απώλεια των θέσεων εργασίας επιταχύνθηκε τόσο πολύ που φαίνεται αναγκαίο πλέον να επιβληθεί φόρος 2,5% επί των κερδών των επιχειρήσεων για να στηριχθεί η ιδέα του βασικού εισοδήµατος για όλους. Εν τω µεταξύ, οι «γκουρού» της προόδου της τεχνολογίας δεν δείχνουν κανένα ενδιαφέρον για τον «εκτοπισµό» των θέσεων εργασίας. Ασχολούνται µόνο µε την αναδιοργάνωση της ανθρώπινης δραστηριότητας γύρω από τις τεχνολογικές εξελίξεις. Ορισµένοι ειδικοί, πάντως, πιστεύουν ότι η τεχνητή νοηµοσύνη θα απειλήσει κυρίως τα ανειδίκευτα επαγγέλµατα, ενώ τα ειδικευµένα και µε περισσότερη κατάρτιση πιθανόν να ωφεληθούν, όπως και έγινε από δεκαετία του ’70 µέχρι και σήµερα. Αλλά κι αυτό είναι µάλλον παραπλανητικό.
Ο Μάικλ Λιντς, ιδρυτής της εταιρείας Autonomy, εκτιµά πως στο πεδίο των νοµικών και παρεχόντων νοµικές υπηρεσίες επαγγελµάτων, ένα πεδίο κατεξοχήν παραδοσιακό και «λευκού κολλάρου», η απώλεια θέσεων εργασίας θα είναι δραµατική εξατίας της τεχνητής νοηµοσύνης. Πλέον, δεν θα χρειαζόµαστε µεγάλες οµάδες δικηγόρων για να κάνουν έρευνα εγγράφων. Θα αξιοποιούµε την ψηφιακή έρευνα (e-discovery) και εν πάση περιπτώσει η δουλειά που πριν απασχολούσε 500 νοµικούς τώρα θα απαιτεί µόλις έναν. Αλλά σκεφτείτε κι αυτό: ∆εν θα µπορούσε να αρχειοθετηθεί όλο το νοµοθετικό πλαίσιο και οι πιθανές λύσεις του προβλήµατος σε έναν υπολογιστή, ώστε να καταργηθούν και οι δικαστές; Και η ανθρωπιά; Θα κωδικοποιηθεί και η ανθρωπιά ή θα µας κρίνει ένα άκαµπτο µηχάνηµα;
Για τους Αµιτάι Ετζιόνι και Ορεν Ετσιόνι τα σενάρια περί καταστροφής µας από την επέλαση της τεχνητής νοηµοσύνης είναι υπερβολικά. Αφενός, δεν υπάρχει ένας κοινά αποδεκτός ορισµός του τι είναι τεχνητή νοηµοσύνη, αφετέρου επισηµαίνουν πως οι µηχανές δεν είναι σαν τους ανθρώπους, οι οποίοι µόλις αφεθούν ξαφνικά ελεύθεροι ακολουθούν τα απωθηµένα τους. ∆εν θα δούµε µια «εξέγερση των µηχανών». Μέχρι στιγµής έχουµε «ψήγµατα» τεχνητής νοηµοσύνης σε συσκευές που κάθε άλλο παρά βλάπτουν τους ανθρώπους. Αυτό που θα µπορούσε άµεσα να γίνει είναι το πάγωµα της έρευνας πάνω στα ροµπότ-όπλα, µε πάνω από 20.000 υπογραφές ακτιβιστών και ακαδηµαϊκών, ανάµεσα στις οποίες φιγουράριζαν τα ονόµατα των Νόαµ Τσόµσκι και Στίβεν Χόκινγκ, οι οποίοι ζητούσαν την αναστολή κάθε έρευνας πάνω στα όπλα της τεχνητής νοηµοσύνης, που ήταν πέρα από τον ανθρώπινο έλεγχο.
Ωστόσο, σε έρευνα του Ινστιτούτου Μαξ Πλανκ τα συµπεράσµατα κινούνται σε αντίθετη κατεύθυνση. «∆εν θα µπορούσαµε να ελέγξουµε τις ευφυείς µηχανές», σηµειώνουν οι συντάκτες της έκθεσης και επισηµαίνουν ότι προσπάθησαν να φτιάξουν έναν αλγόριθµο που θα ελέγχει τις µελλοντικές ευφυείς µηχανές, ώστε αυτές να υπακούουν σε ανθρώπινους γνώµονες καλής και κακής δράσης. Πλην όµως ένας τέτοιος αλγόριθµος είναι αδύνατον να φτιαχτεί. Κι αυτό διότι οι προγραµµατιστές δεν θα ήξεραν αν θα ανέλυε τον κίνδυνο ή θα είχε αδρανοποιηθεί. Παράλληλα, δεν θα µπορούµε καν να ξέρουµε σε ποιο σηµείο οι ευφυείς µηχανές θα έχουν γίνει υπερβολικά ευφυείς και ανεξέλεγκτες. Φαντάζεστε ότι ο άνθρωπος θα µπορέσει να αντισταθεί στο «µέλι» του ροµποτ-εξοπλισµού;
Η άλλη λύση που σκέφτηκαν ήταν να αποκλείσουν την τεχνητή νοηµοσύνη από κάθε πρόσβαση στο ∆ιαδίκτυο, κάτι τέτοιο όµως θα την έκανε πολύ πιο αδύναµη, αφού δεν θα είχε δυνατότητες επεξεργασίας µεγάλων ποσοτήτων δεδοµένων. Αν φαντάζεστε ότι ευφυείς µηχανές που ελέγχουν τον κόσµο είναι κάτι σαν υπόθεση επιστηµονικής φαντασίας, τότε πάλι είστε λάθος. Ηδη, σηµειώνουν οι Μανουέλ Αλφονσέκα και Μανουέλ Σεµπριάν, υπάρχουν µηχανές που εκτελούν εργασίες χωρίς οι προγραµµατιστές να έχουν καταλάβει πώς τα κατάφεραν! Φανταστείτε, λοιπόν, εάν έφταναν σε ένα σηµείο όπου η δράση τους θα ήταν άµεσα απειλητική. Αλλη λύση ενδεχοµένως θα ήταν ο «στραγγαλισµός» των συστηµάτων τεχνητής νοηµοσύνης, χωρίς βέβαια να οδηγηθεί αυτή στον θάνατο - απλώς δεν θα αναπτυχθεί σε ακραίο βαθµό. Μέχρι στιγµής, η κύρια τροφή της τεχνητής νοηµοσύνης είναι τα δεδοµένα µας. Τι θα γίνονταν αν, αντί να τροφοδοτούµε τους servers παγκοσµίως µε τα δεδοµένα µας, τα αποθηκεύαµε σε ασφαλείς τοποθεσίες; Με αυτόν τον τρόπο η τεχνητή νοηµοσύνη θα αναπτυσσόταν ακίνδυνα και πληµµελώς. Το πώς θα γίνει κάτι τέτοιο δεν ξεκαθαρίζεται.
Ανάµεσα στις θεµατικές που έθιξαν οι Μπιλ Ντάβιντοου και Μίχαελ Μαλόουν ήταν ο έλεγχος της συµπεριφοράς µας µέσα από τους αλγορίθµους, που επί της ουσίας κατευθύνουν σε µεγάλο βαθµό τις καταναλωτικές µας επιλογές και σε ορισµένες χώρες, όπως η Κίνα, επιβάλλουν το social scoring, δηλαδή τη βαθµολόγηση (από την τεχνητή νοηµοσύνη) των πολιτών αναλόγως της διαγωγής τους, µε δώρα ή τιµωρίες. Τι γίνεται όµως στον «ελεύθερο κόσµο»;
Θα παραθέσουµε τα λόγια της δηµοσιογράφου Μαρίας ∆εναξά σχετικά µε το νέο point system επιβράβευσης (ή καταδίκης) των Κινέζων από τις υπηρεσίες τάξης και ασφάλειας: «Το πρόγραµµα ονοµάζεται “κοινωνική πίστωση” και εφαρµόζεται ήδη πιλοτικά σε 40 πόλεις της αχανούς χώρας. Επί της ουσίας, είναι ένας µαζικός έλεγχος των πολιτών, σε πραγµατικό χρόνο, µε τη βοήθεια της τεχνητής νοηµοσύνης. Σε κάθε πολίτη, ανά πάσα στιγµή, φακελώνονται οι κινήσεις και η συµπεριφορά του. Οι Αρχές µπορούν να αναγνωρίζουν πρόσωπα, να σαρώνουν το σώµα και να παρακολουθούν όλους τους πολίτες, σε οποιοδήποτε σηµείο της κινεζικής επικράτειας κι αν βρίσκονται. Παράλληλα, οι κάµερες τροφοδοτούν το σύστηµα “κοινωνικής βαθµολόγησης”, το οποίο βασίζεται στην επιβράβευση, την τιµωρία και τη δηµόσια ταπείνωση. Το σύστηµα βαθµολογεί τους πολίτες ανάλογα µε τη συµπεριφορά που καταγράφουν οι κάµερες. Στη συνέχεια, λογισµικά τεχνητής νοηµοσύνης διαχωρίζουν τους πολίτες σε καλούς -που δεν δηµιουργούν πρόβληµα στην κοινωνία- και σε κακούς».
Δημοσιεύτηκε στα ΠΑΡΑΠΟΛΙΤΙΚΑ στις 12/8
Γι’ αυτό και ο Σαµ Ολτµαν, διευθύνων σύµβουλος της startup OpenΑΙ, επισηµαίνει πως το µεγάλο θέµα µας δεν είναι η προσωρινή παύση της παγκόσµιας οικονοµίας, αλλά η επέλαση της τεχνητής νοηµοσύνης και του αυτοµατισµού. ∆ιότι, ναι µεν, τις βιοµηχανίες µπορεί να τις συµφέρει η αυτοµατοποίηση, καθώς οι αυτοµατισµοί θα δουλεύουν ασταµάτητα, χωρίς απεργίες ή επιδόµατα, αλλά εµείς, οι άνεργοι πλέον και, ως εκ τούτου, «νεόπτωχοι», θα κρεµόµαστε από το εγγυηµένο εισόδηµα. Αλλά τι είναι εγγυηµένο σε αυτήν τη ζωή, για να φανταστούµε ότι θα υπάρχει ένα εγγυηµένο εισόδηµα για τον κάθε έναν νεόπτωχο άνθρωπο; Η λύση για ένα εγγυηµένο βασικό εισόδηµα και µια διά βίου µάθηση φάνηκε ενδιαφέρουσα, όπως τέθηκε µέσα στην πανδηµία.
Αλλά σκεφτείτε τι θα τη χρειαζόµαστε τη διά βίου µάθηση. Για ποια εργασία θα µελετάµε διαρκώς;
Είµαστε ενάντια στην τεχνολογία; Φυσικά και όχι, αλλά είµαστε υπέρ της αξιοπρεπούς συνέχισης της ζωής µας. Η απώλεια των θέσεων εργασίας επιταχύνθηκε τόσο πολύ που φαίνεται αναγκαίο πλέον να επιβληθεί φόρος 2,5% επί των κερδών των επιχειρήσεων για να στηριχθεί η ιδέα του βασικού εισοδήµατος για όλους. Εν τω µεταξύ, οι «γκουρού» της προόδου της τεχνολογίας δεν δείχνουν κανένα ενδιαφέρον για τον «εκτοπισµό» των θέσεων εργασίας. Ασχολούνται µόνο µε την αναδιοργάνωση της ανθρώπινης δραστηριότητας γύρω από τις τεχνολογικές εξελίξεις. Ορισµένοι ειδικοί, πάντως, πιστεύουν ότι η τεχνητή νοηµοσύνη θα απειλήσει κυρίως τα ανειδίκευτα επαγγέλµατα, ενώ τα ειδικευµένα και µε περισσότερη κατάρτιση πιθανόν να ωφεληθούν, όπως και έγινε από δεκαετία του ’70 µέχρι και σήµερα. Αλλά κι αυτό είναι µάλλον παραπλανητικό.
Ο Μάικλ Λιντς, ιδρυτής της εταιρείας Autonomy, εκτιµά πως στο πεδίο των νοµικών και παρεχόντων νοµικές υπηρεσίες επαγγελµάτων, ένα πεδίο κατεξοχήν παραδοσιακό και «λευκού κολλάρου», η απώλεια θέσεων εργασίας θα είναι δραµατική εξατίας της τεχνητής νοηµοσύνης. Πλέον, δεν θα χρειαζόµαστε µεγάλες οµάδες δικηγόρων για να κάνουν έρευνα εγγράφων. Θα αξιοποιούµε την ψηφιακή έρευνα (e-discovery) και εν πάση περιπτώσει η δουλειά που πριν απασχολούσε 500 νοµικούς τώρα θα απαιτεί µόλις έναν. Αλλά σκεφτείτε κι αυτό: ∆εν θα µπορούσε να αρχειοθετηθεί όλο το νοµοθετικό πλαίσιο και οι πιθανές λύσεις του προβλήµατος σε έναν υπολογιστή, ώστε να καταργηθούν και οι δικαστές; Και η ανθρωπιά; Θα κωδικοποιηθεί και η ανθρωπιά ή θα µας κρίνει ένα άκαµπτο µηχάνηµα;
Για τους Αµιτάι Ετζιόνι και Ορεν Ετσιόνι τα σενάρια περί καταστροφής µας από την επέλαση της τεχνητής νοηµοσύνης είναι υπερβολικά. Αφενός, δεν υπάρχει ένας κοινά αποδεκτός ορισµός του τι είναι τεχνητή νοηµοσύνη, αφετέρου επισηµαίνουν πως οι µηχανές δεν είναι σαν τους ανθρώπους, οι οποίοι µόλις αφεθούν ξαφνικά ελεύθεροι ακολουθούν τα απωθηµένα τους. ∆εν θα δούµε µια «εξέγερση των µηχανών». Μέχρι στιγµής έχουµε «ψήγµατα» τεχνητής νοηµοσύνης σε συσκευές που κάθε άλλο παρά βλάπτουν τους ανθρώπους. Αυτό που θα µπορούσε άµεσα να γίνει είναι το πάγωµα της έρευνας πάνω στα ροµπότ-όπλα, µε πάνω από 20.000 υπογραφές ακτιβιστών και ακαδηµαϊκών, ανάµεσα στις οποίες φιγουράριζαν τα ονόµατα των Νόαµ Τσόµσκι και Στίβεν Χόκινγκ, οι οποίοι ζητούσαν την αναστολή κάθε έρευνας πάνω στα όπλα της τεχνητής νοηµοσύνης, που ήταν πέρα από τον ανθρώπινο έλεγχο.
Ωστόσο, σε έρευνα του Ινστιτούτου Μαξ Πλανκ τα συµπεράσµατα κινούνται σε αντίθετη κατεύθυνση. «∆εν θα µπορούσαµε να ελέγξουµε τις ευφυείς µηχανές», σηµειώνουν οι συντάκτες της έκθεσης και επισηµαίνουν ότι προσπάθησαν να φτιάξουν έναν αλγόριθµο που θα ελέγχει τις µελλοντικές ευφυείς µηχανές, ώστε αυτές να υπακούουν σε ανθρώπινους γνώµονες καλής και κακής δράσης. Πλην όµως ένας τέτοιος αλγόριθµος είναι αδύνατον να φτιαχτεί. Κι αυτό διότι οι προγραµµατιστές δεν θα ήξεραν αν θα ανέλυε τον κίνδυνο ή θα είχε αδρανοποιηθεί. Παράλληλα, δεν θα µπορούµε καν να ξέρουµε σε ποιο σηµείο οι ευφυείς µηχανές θα έχουν γίνει υπερβολικά ευφυείς και ανεξέλεγκτες. Φαντάζεστε ότι ο άνθρωπος θα µπορέσει να αντισταθεί στο «µέλι» του ροµποτ-εξοπλισµού;
Η άλλη λύση που σκέφτηκαν ήταν να αποκλείσουν την τεχνητή νοηµοσύνη από κάθε πρόσβαση στο ∆ιαδίκτυο, κάτι τέτοιο όµως θα την έκανε πολύ πιο αδύναµη, αφού δεν θα είχε δυνατότητες επεξεργασίας µεγάλων ποσοτήτων δεδοµένων. Αν φαντάζεστε ότι ευφυείς µηχανές που ελέγχουν τον κόσµο είναι κάτι σαν υπόθεση επιστηµονικής φαντασίας, τότε πάλι είστε λάθος. Ηδη, σηµειώνουν οι Μανουέλ Αλφονσέκα και Μανουέλ Σεµπριάν, υπάρχουν µηχανές που εκτελούν εργασίες χωρίς οι προγραµµατιστές να έχουν καταλάβει πώς τα κατάφεραν! Φανταστείτε, λοιπόν, εάν έφταναν σε ένα σηµείο όπου η δράση τους θα ήταν άµεσα απειλητική. Αλλη λύση ενδεχοµένως θα ήταν ο «στραγγαλισµός» των συστηµάτων τεχνητής νοηµοσύνης, χωρίς βέβαια να οδηγηθεί αυτή στον θάνατο - απλώς δεν θα αναπτυχθεί σε ακραίο βαθµό. Μέχρι στιγµής, η κύρια τροφή της τεχνητής νοηµοσύνης είναι τα δεδοµένα µας. Τι θα γίνονταν αν, αντί να τροφοδοτούµε τους servers παγκοσµίως µε τα δεδοµένα µας, τα αποθηκεύαµε σε ασφαλείς τοποθεσίες; Με αυτόν τον τρόπο η τεχνητή νοηµοσύνη θα αναπτυσσόταν ακίνδυνα και πληµµελώς. Το πώς θα γίνει κάτι τέτοιο δεν ξεκαθαρίζεται.
Ανάµεσα στις θεµατικές που έθιξαν οι Μπιλ Ντάβιντοου και Μίχαελ Μαλόουν ήταν ο έλεγχος της συµπεριφοράς µας µέσα από τους αλγορίθµους, που επί της ουσίας κατευθύνουν σε µεγάλο βαθµό τις καταναλωτικές µας επιλογές και σε ορισµένες χώρες, όπως η Κίνα, επιβάλλουν το social scoring, δηλαδή τη βαθµολόγηση (από την τεχνητή νοηµοσύνη) των πολιτών αναλόγως της διαγωγής τους, µε δώρα ή τιµωρίες. Τι γίνεται όµως στον «ελεύθερο κόσµο»;
Θα παραθέσουµε τα λόγια της δηµοσιογράφου Μαρίας ∆εναξά σχετικά µε το νέο point system επιβράβευσης (ή καταδίκης) των Κινέζων από τις υπηρεσίες τάξης και ασφάλειας: «Το πρόγραµµα ονοµάζεται “κοινωνική πίστωση” και εφαρµόζεται ήδη πιλοτικά σε 40 πόλεις της αχανούς χώρας. Επί της ουσίας, είναι ένας µαζικός έλεγχος των πολιτών, σε πραγµατικό χρόνο, µε τη βοήθεια της τεχνητής νοηµοσύνης. Σε κάθε πολίτη, ανά πάσα στιγµή, φακελώνονται οι κινήσεις και η συµπεριφορά του. Οι Αρχές µπορούν να αναγνωρίζουν πρόσωπα, να σαρώνουν το σώµα και να παρακολουθούν όλους τους πολίτες, σε οποιοδήποτε σηµείο της κινεζικής επικράτειας κι αν βρίσκονται. Παράλληλα, οι κάµερες τροφοδοτούν το σύστηµα “κοινωνικής βαθµολόγησης”, το οποίο βασίζεται στην επιβράβευση, την τιµωρία και τη δηµόσια ταπείνωση. Το σύστηµα βαθµολογεί τους πολίτες ανάλογα µε τη συµπεριφορά που καταγράφουν οι κάµερες. Στη συνέχεια, λογισµικά τεχνητής νοηµοσύνης διαχωρίζουν τους πολίτες σε καλούς -που δεν δηµιουργούν πρόβληµα στην κοινωνία- και σε κακούς».
Δημοσιεύτηκε στα ΠΑΡΑΠΟΛΙΤΙΚΑ στις 12/8