Ευρωκοινβούλιο: Ενέκρινε πιο αυστηρούς κανόνες για την τεχνητή νοημοσύνη

Οι ευρωβουλευτές συμφώνησαν για τις τροπολογίες που πρέπει να γίνουν στο νομοσχέδιο που πρότεινε η Ευρωπαϊκή Επιτροπή, το οποίο έχει σκοπό τη δημιουργία παγκόσμιων προτύπων για την τεχνητή νοημοσύνη.

Δημοσιεύθηκε: 14 Ιουνίου 2023 - 18:09

Load more

Οι ευρωβουλευτές τάχθηκαν σήμερα υπέρ πιο αυστηρών κανόνων για την τεχνητή νοημοσύνη (AI) οι οποίοι περιλαμβάνουν απαγόρευση στη χρήση της τεχνολογίας στη βιομετρική επιτήρηση και την υποχρέωση συστημάτων γενετικής AI όπως το ChatGPT να αποκαλύπτουν περιεχόμενο που έχει δημιουργηθεί με χρήση AI.

Οι ευρωβουλευτές συμφώνησαν για τις τροπολογίες που πρέπει να γίνουν στο νομοσχέδιο που πρότεινε η Ευρωπαϊκή Επιτροπή, το οποίο έχει σκοπό τη δημιουργία παγκόσμιων προτύπων για την τεχνολογία που χρησιμοποιείται παντού, από τα αυτοματοποιημένα εργοστάσια μέχρι τις αυτοματοποιημένες εφαρμογές και τα αυτοκίνητα χωρίς οδηγό.

Η ταχεία υιοθέτηση του ChatGPT της εταιρίας OpenAI με την υποστήριξη της Microsoft, και άλλων αυτοματοποιημένων εφαρμογών έχει οδηγήσει κορυφαίους επιστήμονες στην τεχνητή νοημοσύνη και στελέχη εταιριών περιλαμβανομένου του Έλον Μασκ και του διευθύνοντος συμβούλου της OpenAI Σαμ Όλτμαν να μιλήσουν για ενδεχόμενους κινδύνους στην κοινωνία.

«Ενώ οι Big Tech [οι κυρίαρχες εταιρίες στον κλάδο της τεχνολογίας πληροφοριών] κρούουν οι ίδιες τον κώδωνα του κινδύνου για τις δημιουργίες τους, η Ευρώπη προχώρησε μπροστά και πρότεινε μια χειροπιαστή απάντηση στους κινδύνους που αρχίζει να θέτει η AI», δήλωσε ο Μπράντο Μπενιφέι, από τους εισηγητές του Ευρωπαϊκού Κοινοβουλίου.

Μεταξύ άλλων αλλαγών, οι ευρωβουλευτές θέλουν όποια εταιρία χρησιμοποιεί εργαλεία γενετικής τεχνητής νοημοσύνης να αποκαλύπτει υλικό με κατοχυρωμένα δικαιώματα πνευματικής ιδιοκτησίας το οποίο χρησιμοποιήθηκε για την εκπαίδευση των συστημάτων της και από τις εταιρίες που δουλεύουν πάνω σε «εφαρμογή υψηλού κινδύνου» να κάνουν αξιολόγηση αντίκτυπου στα βασικά δικαιώματα και να αποτιμήσουν τον αντίκτυπο στο περιβάλλον.

Η Microsoft, που έχει ζητήσει να επιβληθούν κανόνες στην AI, χαιρέτισε τη συμφωνία των βουλευτών.

«Πιστεύουμε πως η AI απαιτεί νομοθετικά προστατευτικά κιγκλιδώματα, προσπάθειες ευθυγράμμισης σε διεθνές επίπεδο και σημαντικές εθελοντικές ενέργειες από εταιρίες που αναπτύσσουν και χρησιμοποιούν AI», δήλωσε εκπρόσωπος της Microsoft.

Ωστόσο η Computer and Communications Industry Association ανέφερε πως οι τροπολογίες για υψηλού κινδύνου AI είναι πιθανόν να φορτώσουν τους Ευρωπαίους κατασκευαστές τεχνητής νοημοσύνης με «υπερβολικούς ρυθμιστικούς κανόνες» και να επιβραδύνουν την καινοτομία.

«Η ΑΙ εγείρει πολλά ερωτήματα -- κοινωνικά, ηθικά, οικονομικά. Αλλά δεν είναι τώρα η ώρα να πατήσουμε οποιοδήποτε ‘κουμπί pause'. Αντίθετα, το θέμα είναι να δράσουμε γρήγορα και να αναλάβουμε την ευθύνη», δήλωσε ο Επίτροπος Βιομηχανίας της ΕΕ, Τιερί Μπρετόν.

Η Επιτροπή ανακοίνωσε το σχέδιό της για την κανονιστική ρύθμιση της τεχνητής νοημοσύνης πριν από δύο χρόνια με σκοπό τη δημιουργία παγκόσμιων προτύπων για μια τεχνολογία κλειδί για όλες σχεδόν τις βιομηχανίες και τις επιχειρήσεις και στην προσπάθεια να προφθάσει τις προπορευόμενες στην τεχνητή νοημοσύνη Ηνωμένες Πολιτείες και Κίνα.

Οι ευρωβουλευτές θα πρέπει τώρα να συζητήσουν τις λεπτομέρειες με τις χώρες μέλη της Ευρωπαϊκής Ένωσης προτού το προσχέδιο κανόνων γίνει νόμος.

ΠΗΓΗ: ΑΠΕ

Load more

Δείτε επίσης

Load more

Σεβόμαστε την ιδιωτικότητά σας

Εμείς και οι συνεργάτες μας χρησιμοποιούμε τεχνολογίες, όπως cookies, και επεξεργαζόμαστε προσωπικά δεδομένα, όπως διευθύνσεις IP και αναγνωριστικά cookies, για να προσαρμόζουμε τις διαφημίσεις και το περιεχόμενο με βάση τα ενδιαφέροντά σας, για να μετρήσουμε την απόδοση των διαφημίσεων και του περιεχομένου και για να αποκτήσουμε εις βάθος γνώση του κοινού που είδε τις διαφημίσεις και το περιεχόμενο. Κάντε κλικ παρακάτω για να συμφωνήσετε με τη χρήση αυτής της τεχνολογίας και την επεξεργασία των προσωπικών σας δεδομένων για αυτούς τους σκοπούς. Μπορείτε να αλλάξετε γνώμη και να αλλάξετε τις επιλογές της συγκατάθεσής σας ανά πάσα στιγμή επιστρέφοντας σε αυτόν τον ιστότοπο.



Πολιτική Cookies
& Προστασία Προσωπικών Δεδομένων