Η τεχνητή νοημοσύνη νέος μεγάλος κίνδυνος για τους επενδυτές

Η εξάπλωση των εργαλείων τεχνητής νοημοσύνης θα επιδεινώσει τον κίνδυνο παραπληροφόρησης. Πώς τα deepfakes μπορεί να κοστίσουν ακριβά. Ποιες είναι βραχυπρόθεσμες και μακροπρόθεσμες λύσεις.

Η τεχνητή νοημοσύνη νέος μεγάλος κίνδυνος για τους επενδυτές
  • της Gillian Tett

Τον περασμένο μήνα «έσκασε» ένα περιστατικό online, που θα έπρεπε να ταράξει οποιονδήποτε επενδυτή. Ένα deepfake βίντεο μιας υποτιθέμενης έκρηξης κοντά στο Πεντάγωνο έγινε viral, καθώς έγινε retweet του από μέσα ενημέρωσης όπως το Russia Today, προκαλώντας αναταράξεις στις αγορές μετοχών των ΗΠΑ.

Ευτυχώς, οι αμερικανικές αρχές πλημμύρισαν γρήγορα τα social media με δηλώσεις που έλεγαν πως το βίντεο είναι ψεύτικο –και το RT εξέδωσε μια ντροπαλή ανακοίνωση παραδεχόμενο πως «είναι μόνο μια εικόνα που έχει παραχθεί από ΑΙ». Οι αγορές στη συνέχεια ανέκαμψαν.

Ωστόσο, το επεισόδιο δημιούργησε ένα απογοητευτικό σκηνικό για την επίσκεψη του Βρετανού πρωθυπουργού, Ρίσι Σουνάκ, στην Ουάσιγκτον αυτή την εβδομάδα - και την προσφορά του για μια κοινή πρωτοβουλία ΗΠΑ-Ηνωμένου Βασιλείου για την αντιμετώπιση των κινδύνων της Τεχνητής Νοημοσύνης (ΑΙ).

Πρόσφατα αυξήθηκαν οι φωνές που σημαίνουν συναγερμό τόσο εντός όσο και εκτός του τεχνολογικού τομέα σχετικά με τους κινδύνους της υπερ-ευφυούς, αυτοκατευθυνόμενης τεχνητής νοημοσύνης. Την περασμένη εβδομάδα, περισσότεροι από 350 επιστήμονες εξέδωσαν κοινή επιστολή προειδοποιώντας ότι «ο μετριασμός του κινδύνου εξαφάνισης από την ΑΙ θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».

Αυτές οι μακροπρόθεσμες απειλές «εξαφάνισης» γίνονται πρωτοσέλιδα. Αλλά ειδικοί όπως ο Τζεφ Χίντον - ακαδημαϊκός και πρώην υπάλληλος της Google, που θεωρείται ως ένας από τους «νονούς της τεχνητής νοημοσύνης», πιστεύουν ότι ο πιο άμεσος κίνδυνος για τον οποίο πρέπει να ανησυχούμε δεν είναι ότι οι μηχανές θα ξεσαλώσουν ανεξάρτητα, αλλά ότι οι άνθρωποι θα τις χρησιμοποιήσουν καταχρηστικά.

Πιο συγκεκριμένα, όπως δήλωσε πρόσφατα ο Χίντον σε συνάντηση στο πανεπιστήμιο του Κέιμπριτζ, η διάδοση των εργαλείων τεχνητής νοημοσύνης θα μπορούσε να επιδεινώσει δραματικά τα υπάρχοντα προβλήματα στον κυβερνοχώρο, όπως το έγκλημα, η πειρατεία και η παραπληροφόρηση.

Στην Ουάσινγκτον υπάρχει ήδη έντονη ανησυχία ότι τα deepfakes θα δηλητηριάσουν τον προεκλογικό αγώνα του 2024. Αυτή την άνοιξη προέκυψε ότι έχουν ήδη επηρεάσει την πολιτική της Βενεζουέλας. Και αυτή την εβδομάδα Ουκρανοί χάκερς μετέδωσαν ένα deepfake βίντεο του Βλαντίμιρ Πούτιν σε ορισμένα ρωσικά τηλεοπτικά κανάλια.

Όμως, ο χρηματοπιστωτικός τομέας αναδεικνύεται τώρα σε ένα άλλο επίκεντρο ανησυχίας. Τον περασμένο μήνα η συμβουλευτική εταιρεία Kaspersky δημοσίευσε μια εθνογραφική μελέτη του dark web, η οποία σημείωσε «μια σημαντική ζήτηση για deepfakes», με «τιμές ανά λεπτό deepfake βίντεο (που κυμαίνονται) από 300 έως 20.000 δολάρια». Μέχρι στιγμής έχουν χρησιμοποιηθεί κυρίως για απάτες με κρυπτονομίσματα, αναφέρει. Αλλά το βίντεο deepfake του Πενταγώνου δείχνει πώς θα μπορούσαν να επηρεάσουν και τις κύριες αγορές assets. «Μπορεί να δούμε εγκληματίες να τα χρησιμοποιούν για σκόπιμη χειραγώγηση (της αγοράς)», όπως μου λέει ένας αξιωματούχος των ΗΠΑ για θέματα ασφαλείας.

Υπάρχει λοιπόν κάτι που μπορούν να κάνουν ο Σουνάκ και ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν; Όχι εύκολα. Ο Λευκός Οίκος διεξήγαγε πρόσφατα επίσημες συζητήσεις για τις διατλαντικές πολιτικές ΑΙ με την ΕΕ (από τις οποίες η Βρετανία, ως μη μέλος της ΕΕ, αποκλείστηκε). Όμως η πρωτοβουλία αυτή δεν έχει ακόμη οδηγήσει σε κάποιο απτό σύμφωνο. Και οι δύο πλευρές αναγνωρίζουν την απελπιστική ανάγκη για διασυνοριακές πολιτικές AI, αλλά οι αρχές της ΕΕ είναι πιο πρόθυμες για ρυθμιστικούς ελέγχους από πάνω προς τα κάτω από ό,τι η Ουάσινγκτον - και αποφασισμένες να κρατήσουν τους αμερικανικούς τεχνολογικούς ομίλους σε απόσταση.

Έτσι, ορισμένοι Αμερικανοί αξιωματούχοι υποψιάζονται ότι ίσως είναι ευκολότερο να ξεκινήσει ο διεθνής συντονισμός με μια διμερή πρωτοβουλία για την AI με το Ηνωμένο Βασίλειο, δεδομένης της πρόσφατης έκδοσης ενός πιο φιλικού προς τις επιχειρήσεις εγγράφου πολιτικής. Υπάρχουν προϋπάρχοντες στενοί δεσμοί πληροφοριών, μέσω του λεγόμενου συμφώνου ασφαλείας Five Eyes, και οι δύο χώρες κατέχουν ένα μεγάλο κομμάτι του δυτικού οικοσυστήματος τεχνητής νοημοσύνης (καθώς και των χρηματοπιστωτικών αγορών).

Έχουν διατυπωθεί διάφορες ιδέες. Μία από αυτές, που προωθείται από τον Σουνάκ, είναι η δημιουργία ενός χρηματοδοτούμενου από το κράτος διεθνούς ερευνητικού ινστιτούτου για την τεχνητή νοημοσύνη, όπως το Cern, το κέντρο σωματιδιακής φυσικής. Η ελπίδα είναι ότι αυτό θα μπορούσε να αναπτύξει την τεχνητή νοημοσύνη με ασφάλεια, καθώς και να δημιουργήσει εργαλεία με δυνατότητα ΑΙ για την καταπολέμηση της κατάχρησης, όπως η παραπληροφόρηση.

Υπάρχει επίσης μια πρόταση για τη δημιουργία ενός παγκόσμιου οργανισμού παρακολούθησης της ΑΙ, παρόμοιου με τον Διεθνή Οργανισμό Ατομικής Ενέργειας- ο Σουνάκ επιθυμεί να έχει την έδρα του στο Λονδίνο. Μια τρίτη ιδέα είναι η δημιουργία ενός παγκόσμιου πλαισίου αδειοδότησης για την ανάπτυξη και την αξιοποίηση εργαλείων ΑΙ. Αυτό θα μπορούσε να περιλαμβάνει μέτρα για την καθιέρωση «υδατοσήμων» που θα δείχνουν την προέλευση του διαδικτυακού περιεχομένου και θα εντοπίζουν τις βαθιές απομιμήσεις.

Όλες αυτές είναι εξαιρετικά λογικές ιδέες που θα μπορούσαν -και θα έπρεπε- να αναπτυχθούν. Αλλά αυτό είναι απίθανο να συμβεί γρήγορα ή εύκολα. Η δημιουργία ενός Cern τύπου AI θα μπορούσε να είναι πολύ δαπανηρή και θα είναι δύσκολο να υπάρξει ταχεία διεθνής υποστήριξη για ένα όργανο παρακολούθησης τύπου ΙΑΕΑ.

Και το μεγάλο πρόβλημα που στοιχειώνει κάθε σύστημα αδειοδότησης είναι το πώς θα μπει στο δίκτυο το ευρύτερο οικοσύστημα. Οι τεχνολογικοί όμιλοι που κυριαρχούν στην έρευνα αιχμής για την τεχνητή νοημοσύνη στη Δύση - όπως η Microsoft, η Google και η OpenAI - έχουν δηλώσει στον Λευκό Οίκο ότι θα συνεργάζονταν με ιδέες αδειοδότησης. Οι εταιρικοί χρήστες τους θα συμμορφωθούν σχεδόν σίγουρα επίσης.

Ωστόσο, το να μπει η επιχειρηματική «μαρίδα» - και οι εγκληματικές ομάδες - σε ένα δίχτυ αδειοδότησης θα ήταν πολύ πιο δύσκολο. Και υπάρχει ήδη άφθονο υλικό ανοικτού κώδικα για την τεχνητή νοημοσύνη που μπορεί να χρησιμοποιηθεί καταχρηστικά. Το βίντεο deepfake του Πενταγώνου, για παράδειγμα, φαίνεται να έχει χρησιμοποιήσει υποτυπώδη συστήματα.

Έτσι, η δυσάρεστη αλήθεια είναι ότι, βραχυπρόθεσμα, ο μόνος ρεαλιστικός τρόπος για να καταπολεμηθεί ο κίνδυνος χειραγώγησης της αγοράς είναι οι χρηματοδότες (και οι δημοσιογράφοι) να αναπτύξουν περισσότερη δέουσα επιμέλεια - και οι κυβερνητικοί ερευνητές να κυνηγήσουν τους εγκληματίες του κυβερνοχώρου.

Αν η ρητορική αυτής της εβδομάδας από τον Σουνάκ και τον Μπάιντεν βοηθήσει στην ευαισθητοποίηση του κοινού για το θέμα αυτό, αυτό θα ήταν καλό. Αλλά κανείς δεν πρέπει να ξεγελαστεί και να πιστέψει ότι η γνώση και μόνο θα διορθώσει την απειλή.

Η ευθύνη είναι του αγοραστή.

© The Financial Times Limited 2023. All rights reserved.
FT and Financial Times are trademarks of the Financial Times Ltd.
Not to be redistributed, copied or modified in any way.
Euro2day.gr is solely responsible for providing this translation and the Financial Times Limited does not accept any liability for the accuracy or quality of the translation

ΣΧΟΛΙΑ ΧΡΗΣΤΩΝ

blog comments powered by Disqus
v