Η νέα ομοσπονδιακή οδηγία του Καναδά καθιστά την ηθική τεχνητή νοημοσύνη εθνικό ζήτημα

Στην τέλεια διασταύρωση τεχνολογίας και δημόσιας υπηρεσίας, κάθε κυβερνητική διαδικασία θα είναι μια αυτοματοποιημένη διαδικασία, εξορθολογίζοντας τα οφέλη, τα αποτελέσματα και τις εφαρμογές για κάθε πολίτη σε μια χώρα με ψηφιακή δυνατότητα.



Με αυτήν την προσέγγιση έρχεται ένα σημαντικό επίπεδο πρωτοκόλλου που είναι απαραίτητο για να διασφαλιστεί ότι οι πολίτες αισθάνονται εξουσιοδοτημένοι όσον αφορά τις διαδικασίες λήψης αποφάσεων και τον τρόπο με τον οποίο η κυβέρνησή τους αντιμετωπίζει τις ανάγκες από ψηφιακή προοπτική. Αυτήν τη στιγμή, ο Καναδάς ηγείται παγκοσμίως στην τεχνητή νοημοσύνη, χάρη σε μεγάλο βαθμό σε τεράστιες κρατικές επενδύσεις όπως η Πανκαναδική Στρατηγική Τεχνητής Νοημοσύνης . Το αναπτυσσόμενο πεδίο είναι διάχυτο αυτή τη στιγμή - δεν υπάρχει σχεδόν κανένας κλάδος που δεν έχει διαταράξει, από την εξόρυξη μέχρι τη νομική βοήθεια. Η κυβέρνηση δεν είναι διαφορετική. Στην πραγματικότητα, η κυβέρνηση μπορεί να είναι μια από τις πιο προφανείς επιλογές ως προς το πού οι αυτοματοποιημένες διαδικασίες λήψης αποφάσεων μπορούν να εξοικονομήσουν χρόνο και χρήμα.



Το δίλημμα που προκύπτει από τη θέσπιση της τεχνητής νοημοσύνης από την κυβέρνηση είναι η ενίσχυση των προβλημάτων που σχετίζονται με τον τρόπο με τον οποίο οποιοσδήποτε οργανισμός αγκαλιάζει την αναπτυσσόμενη τεχνολογία: Πώς διασφαλίζετε ότι αυτή η πλατφόρμα ή η υπηρεσία τεχνητής νοημοσύνης ικανοποιεί δίκαια και επαρκώς τις ανάγκες των πελατών του; Μια εταιρεία όπως το Facebook χρησιμοποιεί AI για διάφορους λόγους, όπως η στόχευση διαφημίσεων ή η αναγνώριση προσώπου στις φωτογραφίες. Σίγουρα, οι αλγόριθμοί τους μπορεί να οδηγήσουν σε ανατριχιαστικά ακριβείς διαφημίσεις που εμφανίζονται στη ροή ειδήσεων, αλλά η ηθική των λύσεων μηχανικής εκμάθησης επηρεάζει πραγματικά μόνο το απόρρητο ενός ατόμου —ή την έλλειψή του τα τελευταία χρόνια.



canada_ai 5

Μια κυβέρνηση, από την άλλη πλευρά, πρέπει να λάβει υπόψη μια τεράστια γκάμα λεπτομερειών καθώς αρχίζει να υιοθετεί νέες τεχνολογίες όπως η τεχνητή νοημοσύνη. Οι κυβερνήσεις ασχολούνται με το απόρρητο, φυσικά - αλλά ασχολούνται επίσης με την υγειονομική περίθαλψη, τη μετανάστευση, την εγκληματική δραστηριότητα και πολλά άλλα. Επομένως, το πρόβλημα για αυτούς περιστρέφεται λιγότερο γύρω από το ποιο είδος λύσης AI πρέπει να χρησιμοποιήσουμε; και περισσότερα σχετικά με Ποια δεν πρέπει να χρησιμοποιήσουμε;



Οι πλατφόρμες τεχνητής νοημοσύνης που μια κυβέρνηση δεν μπορεί να αγγίξει είναι αυτές που προσφέρουν ελάχιστη έως καθόλου διαφάνεια και είναι γεμάτες μεροληψία και αβεβαιότητα. Εάν μια απόφαση της κυβέρνησης εκδοθεί μέσω μιας αυτοματοποιημένης διαδικασίας, ο πολίτης έχει το δικαίωμα να καταλάβει πώς προέκυψε αυτή η απόφαση. Δεν μπορεί να υπάρξει προστασία της IP και κανένας στενά προστατευμένος πηγαίος κώδικας. Για παράδειγμα, εάν σε έναν αιτούντα για μια πιθανή ποινική χάρη απορρίπτεται αυτή η χάρη από ένα σύστημα τεχνητής νοημοσύνης που έχει εκπαιδευτεί με ιστορικά δεδομένα, αυτός ο αιτών αξίζει να καταλάβει ακριβώς γιατί μπορεί να απορρίφθηκε.

Η λύση της καναδικής κυβέρνησης σε αυτό το ζήτημα είναι η Οδηγία για την Αυτοματοποιημένη Λήψη Αποφάσεων, που κυκλοφόρησε νωρίτερα αυτή την εβδομάδα. Υπαινίχθηκε στα τέλη του 2018 από τον τότε Υπουργό Ψηφιακής Κυβέρνησης Scott Brison, είναι ένα εγχειρίδιο που περιγράφει πώς η κυβέρνηση θα χρησιμοποιήσει την τεχνητή νοημοσύνη για να καθοδηγήσει τις αποφάσεις σε διάφορα τμήματα. Στο επίκεντρο της οδηγίας βρίσκεται η Αλγοριθμική Εκτίμηση Επιπτώσεων (AIA), ένα εργαλείο που καθορίζει ακριβώς τι είδους ανθρώπινη παρέμβαση, αξιολόγηση από ομοτίμους, παρακολούθηση και σχεδιασμό έκτακτης ανάγκης θα απαιτήσει ένα εργαλείο τεχνητής νοημοσύνης που έχει κατασκευαστεί για να εξυπηρετεί τους πολίτες.

Οδηγός ηθικής μηχανής



Η πορεία της καναδικής κυβέρνησης να εφαρμόσει ηθικές πρακτικές στις διαδικασίες λήψης αποφάσεων της τεχνητής νοημοσύνης ξεκίνησε πριν από περίπου 14 μήνες όταν ο Michael Karlin, ο επικεφαλής της ομάδας για την πολιτική δεδομένων στο Υπουργείο Εθνικής Άμυνας, παρατήρησε ένα τυφλό σημείο στον τρόπο με τον οποίο η κυβέρνηση χειριζόταν τα δεδομένα τους. Δημιουργήθηκε μια ομάδα για την ανάπτυξη ενός πλαισίου και αναπτύχθηκε από εκεί, δουλεύοντας εξ ολοκλήρου ανοιχτά μέσω πλατφορμών όπως το GitHub και λαμβάνοντας σχόλια από ιδιωτικές εταιρείες, άλλες κυβερνήσεις και ιδρύματα μεταδευτεροβάθμιας εκπαίδευσης όπως το MIT και η Οξφόρδη.

Όταν αυτή η ομάδα, της οποίας ηγείται τώρα ο επικεφαλής πληροφοριών του Καναδά, Alex Benay, κοίταξε γύρω από άλλες κυβερνήσεις, συνειδητοποίησαν ότι δεν υπήρχε εργαλείο που να μπορεί να μετρήσει με ακρίβεια τον αντίκτυπο που μπορεί να έχει μια αυτοματοποιημένη διαδικασία στους πολίτες που δημιουργήθηκε για να εξυπηρετεί. Υπάρχουν προφανώς εγγενείς κίνδυνοι ανάλογα με το πώς λειτουργεί η τεχνητή νοημοσύνη με τους πελάτες της—μερικοί από αυτούς είναι χαμηλού κόστους, ενώ άλλοι είναι εξαιρετικά σημαντικοί.

Εάν ένα chatbot πρόκειται να σας πει ότι ένα παγοδρόμιο είναι ανοιχτό και εμφανιστείτε και δεν είναι ανοιχτό και ότι αυτό το chatbot ήταν λάθος, αυτό είναι χαμηλού κινδύνου, εξηγεί ο Benay. Αλλά αν πρόκειται να αυτοματοποιήσετε τις αποφάσεις για τη μετανάστευση, είναι τόσο υψηλός κίνδυνος όσο μπορούμε.



Η νέα οδηγία ποσοτικοποιεί αυτούς τους κινδύνους και προσφέρει τον ΔΑΑ ως εργαλείο για εταιρείες που κατασκευάζουν κυβερνητικές λύσεις τεχνητής νοημοσύνης που καθορίζει ακριβώς τι είδους παρέμβαση μπορεί να χρειαστούν. Οι εταιρείες έχουν πρόσβαση στον ΔΑΑ διαδικτυακά και συμπληρώνουν μια έρευνα 60 και πλέον ερωτήσεων σχετικά με την πλατφόρμα τους και μόλις τελειώσουν, θα επιστραφούν με ένα επίπεδο αντίκτυπου. Η έρευνα θέτει ερωτήσεις όπως Μήπως το σύστημα επιτρέπει την παράκαμψη των ανθρώπινων αποφάσεων; και Υπάρχει κάποια διαδικασία για την τεκμηρίωση του τρόπου με τον οποίο επιλύθηκαν ζητήματα ποιότητας δεδομένων κατά τη διαδικασία σχεδιασμού;

Δύο ακόμη παραδείγματα ερωτήσεων από τον ΔΑΑ.

Το επίπεδο επιπτώσεων μιας πλατφόρμας τεχνητής νοημοσύνης που έχει συνάψει η κυβέρνηση κατατάσσεται από το ένα έως το τέταρτο. Όσο υψηλότερη είναι η κατάταξη, τόσο μεγαλύτερος αντίκτυπος έχει η διαδικασία αυτοματοποιημένων αποφάσεων στα δικαιώματα, την υγεία και τα οικονομικά συμφέροντα των ατόμων και των κοινοτήτων. Οι διαδικασίες που λαμβάνουν αποφάσεις που περιλαμβάνουν εγκληματική δραστηριότητα ή την ικανότητα ενός ατόμου να εξέλθει και να εισέλθει στη χώρα, για παράδειγμα, θα αξιολογηθούν αμέσως με επίπεδο αντίκτυπου τριών ή τεσσάρων.

Σε ορισμένα επίπεδα επιπτώσεων, πρέπει να υπάρχει παρέμβαση με διάφορες μορφές. Εάν μια αυτοματοποιημένη διαδικασία λήψης απόφασης λάβει αξιολόγηση επιπτώσεων του επιπέδου τέταρτου, θα απαιτηθούν δύο ανεξάρτητες αξιολογήσεις από ομοτίμους, μια δημόσια ειδοποίηση σε απλή γλώσσα, μια ανθρώπινη παρέμβαση ασφαλής και επαναλαμβανόμενα μαθήματα κατάρτισης για το σύστημα.

Η αξιολόγηση του ΔΑΑ είναι πραγματικά ένα εργαλείο που δείχνει το επίπεδο σοβαρότητάς σας και πώς πρέπει να αντιμετωπίζετε το ζήτημα, λέει ο Benay. Πιθανότατα δεν χρειάζεστε αξιολόγηση από ομοτίμους για αυτό το πρόβλημα του παγοδρομίου, αλλά σίγουρα θα χρειαστείτε μια ομάδα αξιολόγησης από ομοτίμους προτού αυτοματοποιήσετε τα σύνορα ή τις κοινωνικές υπηρεσίες.

Παρά το γεγονός ότι αυτή η οδηγία μπορεί να κάνει να φαίνεται ότι η κυβέρνηση κάνει ό,τι μπορεί για να προετοιμαστεί για την επίθεση της τεχνολογικής διαταραχής, στην πραγματικότητα συμβαίνει ακριβώς το αντίθετο. Με ένα θέμα τόσο πολύχρωμο όπως η ηθική και η τεχνητή νοημοσύνη, η κορυφαία προτεραιότητα της κυβέρνησης είναι η διαφάνεια και η λογοδοσία.

Αυτό που προσπαθούμε να κάνουμε με τον ΔΑΑ είναι να διασφαλίσουμε ότι οι άνθρωποι παραμένουν υπό τον έλεγχο, ώστε να μπορούν να ασκήσουν έφεση κατά των αποφάσεων.

Αυτό που δεν θέλουμε είναι ένας αλγόριθμος μαύρου κουτιού από μια εταιρεία που δεν θέλει να μας πει πώς αυτός ο αλγόριθμος πήρε την απόφαση, λέει ο Benay. Αυτό δεν είναι κάτι που μπορούμε να τηρήσουμε από μια προσέγγιση υπηρεσίας όπου οι άνθρωποι υποτίθεται ότι έχουν προσφυγή εάν μια υπηρεσία που έλαβαν ήταν άδικη.

Ο ίδιος ο ΔΑΑ είναι ένα σημαντικό επίτευγμα όχι μόνο για την καναδική κυβέρνηση αλλά και για τις κυβερνήσεις σε όλο τον κόσμο. Είναι το πρώτο εργαλείο του είδους του και υιοθετήθηκε από το Μεξικό πριν από τέσσερις μήνες, παρόλο που δεν κυκλοφόρησε επίσημα μέχρι αυτή την εβδομάδα. Ο Μπενάι και η ομάδα του βρίσκονται σε συζητήσεις με πολλά μέλη του το D9 συμπεριλαμβανομένης της Πορτογαλίας και του Ηνωμένου Βασιλείου καθώς προσπαθούν να εφαρμόσουν το εργαλείο.

Όσο σημαντικό κι αν είναι η οδηγία και ο ΔΑΑ να καθορίσουν τον ρυθμό για την εφαρμογή των δεοντολογικών δεοντολογιών καθώς σχετίζονται με τις κυβερνητικές πρακτικές, οι κανονισμοί μπορεί να αποτελέσουν σημείο διαμάχης για ορισμένους από τους προτιμώμενους εταίρους τεχνητής νοημοσύνης του Καναδά, ειδικά για επιχειρήσεις όπως η Amazon Web Services, η Microsoft , και άλλοι.

Προέλευση του προβλήματος

Προκειμένου μια εταιρεία να παρέχει μια αυτοματοποιημένη διαδικασία λήψης αποφάσεων στην κυβέρνηση, η νέα οδηγία αναγκάζει το χέρι της εταιρείας να αποδεσμεύσει τον πηγαίο κώδικα της στην κυβέρνηση. Είναι λογικό στη θεωρία, καθώς όλα στηρίζονται στην έννοια της επεξήγησης, όπως το θέτει ο Benay.

Πρέπει να δείξουμε στους πολίτες πώς ελήφθη μια απόφαση μέσω ενός αλγόριθμου, λέει. Εάν φτάσουμε σε ένα σημείο όπου, για παράδειγμα, υπάρχει μια δικαστική υπόθεση που αφορά αυτήν την αυτοματοποιημένη απόφαση, ίσως χρειαστεί να απελευθερώσουμε τον αλγόριθμο.

Αυτό το σημείο διαμάχης είναι ίσως η πραγματική καρδιά της συζήτησης για την ηθική τεχνητή νοημοσύνη. Πρέπει να υπάρχει ισορροπία μεταξύ των διαφανών αποφάσεων και της προστασίας της πνευματικής ιδιοκτησίας. Εάν μια εταιρεία τεχνητής νοημοσύνης θέλει την κυβέρνηση ως πελάτη, πρέπει να συνειδητοποιήσει ότι η διαφάνεια εκτιμάται πάνω από όλα. Αυτό το είδος σκέψης θα μπορούσε να αποτρέψει ορισμένους εργολάβους.

Σκεφτείτε το ως εξής: Θεωρητικά, εάν η Amazon παρείχε μια λύση τεχνητής νοημοσύνης στην καναδική κυβέρνηση, το μόνο πράγμα που χωρίζει οποιονδήποτε πολίτη από την πρόσβαση σε όλο τον πηγαίο κώδικα της Amazon -τουλάχιστον για το συγκεκριμένο έργο- είναι ένα αίτημα ελευθερίας πληροφοριών. Στην εποχή των στενά φυλαγμένων λύσεων με λευκή ετικέτα και του δανεισμένου κώδικα, η δυνατότητα εύκολης πρόσβασης σε πληροφορίες πηγής είναι ένα δύσκολο πρόβλημα να αναλυθεί. Αυτές οι προσβάσεις θα παρακολουθούνται κατά περίπτωση για την προστασία των εμπορικών μυστικών ή των εμπορικών εμπιστευτικών πληροφοριών ενός τρίτου προμηθευτή, αλλά ακόμη και αυτό θα είναι προς ερμηνεία. Όσοι έχουν πρόσβαση σε αυτόν τον πηγαίο κώδικα εξακολουθούν να προστατεύονται από πνευματικά δικαιώματα, αλλά ο κώδικας μπορεί να παραποιηθεί αρκετά ώστε να τον μπερδέψει και να δημιουργήσει πονοκεφάλους στους αρχικούς εκδότες.

ElementAI_Toronto_Office_Techvibes-5

Τα γραφεία της Element AI στο Τορόντο, ένας προτιμώμενος πωλητής AI για την κυβέρνηση του Καναδά.

Είναι μια λεπτή συζήτηση, λέει ο Benay. Γνωρίζω ότι η IP είναι η γραμμή αίματος των εσόδων για αυτές τις εταιρείες. Αλλά αν πρόκειται να συνεργαστείτε με την κυβέρνηση και να έχετε άμεση αλληλεπίδραση με τους πολίτες, έχετε προσθέσει την ευθύνη ως εταιρεία του ιδιωτικού τομέα. Αυτή είναι η ισορροπία που πρέπει να βρούμε. Δεν είμαι σίγουρος ότι το βρήκαμε. Ίσως το κάναμε, αλλά θα συνεχίσουμε να εργαζόμαστε με διαφάνεια.

Υπάρχουν μόνο μερικοί τρόποι με τους οποίους ο πηγαίος κώδικας προστατεύεται από την απελευθέρωση και τυχαίνει επίσης να σχετίζονται με τις κυβερνητικές υπηρεσίες που αυτή η νέα οδηγία για την τεχνητή νοημοσύνη δεν θα επηρεάσει. Όλοι οι πράκτορες του κοινοβουλίου προστατεύονται, κάτι που λίγο-πολύ περιλαμβάνει τα πάντα στη σφαίρα της ασφάλειας και της ανταγωνιστικής νοημοσύνης. Κάποια στιγμή στο μέλλον, αλγόριθμοι και τεχνητή νοημοσύνη θα χρησιμοποιηθούν για να βοηθήσουν στον εντοπισμό παράνομων δραστηριοτήτων και για προφανείς λόγους, η κυβέρνηση δεν μπορεί να αποκαλύψει δημόσια τον πηγαίο κώδικα για αυτές τις αποφάσεις.

Εάν πρόκειται να συνεργαστείτε με την κυβέρνηση και να έχετε άμεση αλληλεπίδραση με τους πολίτες, έχετε προσθέσει την ευθύνη ως εταιρεία του ιδιωτικού τομέα.

Ο Benay παραδέχεται ότι τα πάντα γύρω από αυτήν την οδηγία μπορεί να μην είναι στην τελική τους μορφή. Επειδή το οικοσύστημα που περιλαμβάνει την τεχνητή νοημοσύνη αλλάζει τόσο γρήγορα, η κυβέρνηση δεσμεύεται να ενημερώνει την οδηγία κάθε έξι μήνες και η κυβέρνηση βρίσκεται επίσης στη διαδικασία σύστασης συμβουλευτικού συμβουλίου τεχνητής νοημοσύνης για να διασφαλίσει ότι οι μελλοντικές αποφάσεις λαμβάνονται υπεύθυνα.

Κανονικά θα είχαμε πέντε, έξι, ακόμη και επτά χρόνια για να αντιμετωπίσουμε κάτι τέτοιο, λέει ο Benay. Χρειάστηκε να το αντιμετωπίσουμε εδώ και μήνες. Είναι μια πολύ νέα μορφή πολιτικής και προοπτικής διακυβέρνησης για να επιλύσετε τα προβλήματα τόσο γρήγορα. Αλλά βλέπετε την ανταπόκριση. Την περσινή μας ημέρα AI, είχαμε 125 άτομα στο δωμάτιο. Για την ημέρα AI φέτος, είχαμε 1.000.

Οι trendsetters

Τα επόμενα χρόνια, δεν θα λείπουν συζητήσεις σχετικά με την ηθική και την τεχνητή νοημοσύνη. Το πραγματικό ερώτημα θα περιστραφεί όταν αυτή η συζήτηση μετατραπεί από προληπτική δράση για το μέλλον των αυτοματοποιημένων αποφάσεων σε αμυντικά αντίποινα, προσπαθώντας να προστατεύσει τους πολίτες και την οικονομία από ήδη καθιερωμένες λύσεις τεχνητής νοημοσύνης. Ένα εργαλείο όπως ο ΔΑΑ δεν είναι ακόμα αμυντικός μηχανισμός, αλλά είναι τόσο κοντά σε αυτόν που έχει αναπτυχθεί ποτέ.

Υπάρχουν πάρα πολλά πράγματα που δεν γνωρίζουμε, λέει ο Benay. Δεν θέλετε να φτάσετε σε μια θέση όπου παραχωρούμε τον έλεγχο των αποφάσεων σε μηχανές χωρίς να γνωρίζουμε τα πάντα για αυτές. Το τρομακτικό μέρος για εμάς σε όλο τον κόσμο είναι ότι πολλές κυβερνήσεις δεν φαίνεται να συνειδητοποιούν το επίπεδο αυτοματοποίησης των δικών τους αξιών που προβάλλουν όταν έχουν να κάνουν με πιθανούς προμηθευτές που έχουν κωδικό μαύρου κουτιού ή IP.

καναδάαα

Υπάρχουν τουλάχιστον μερικά καλά νέα που πρέπει να αφαιρέσετε. Κάθε μέλος του D9 συζητά εάν θα εφαρμόσει τον ΔΑΑ του Καναδά, και το Μεξικό το έχει ήδη κάνει. Ο στόχος είναι όσο το δυνατόν περισσότερα έθνη να το χρησιμοποιήσουν και να αναπτύξουν μια συλλογική εγκεφαλική εμπιστοσύνη πίσω από την οδηγία.

Εάν καταφέρουμε να αποκτήσουμε έναν αξιοπρεπή αριθμό χωρών που χρησιμοποιούν αυτό το εργαλείο και το αναπτύσσουν και το καλλιεργούν, βάζουμε την κυβέρνηση σε καλύτερη θέση να αντιμετωπίσει την αυτοματοποίηση, το απόρρητο και όλα αυτά τα ζητήματα που βλέπετε, λέει ο Benay. Είναι πολύ δύσκολο να είσαι μια μεσαίου μεγέθους χώρα στον κόσμο αυτή τη στιγμή. Με αυτό το εργαλείο ανοιχτό, άλλες χώρες μπορούν να το βοηθήσουν και να αρχίσουν να το χρησιμοποιούν. Είναι μια παγκόσμια πρωτιά στην προσέγγιση της τεχνητής νοημοσύνης από μια κυβέρνηση του δημόσιου τομέα.

Είναι ίσως το πιο διαφανές κομμάτι της πολιτικής μας που έχουμε αναπτύξει ποτέ για διοικητικές πολιτικές στη Γραμματεία του Υπουργείου Οικονομικών.

Σε πιο τοπικό επίπεδο, η κυβέρνηση του Καναδά ζητά από όλους τους ειδικευμένους προμηθευτές τεχνητής νοημοσύνης να δεσμευτούν δημόσια ότι θα συνεργάζονται μόνο με τμήματα που έχουν ολοκληρώσει έναν ΔΑΑ. Μερικές εταιρείες έχουν ήδη αναλάβει τη δέσμευση, συμπεριλαμβανομένων των MindBridge AI, ThinkData Works και CognitiveScale, και η ομάδα του Benay θα στείλει επίσημα επιστολές μέσα σε λίγες εβδομάδες.

Η δημόσια ενδοσκόπηση σχετικά με την ηθική και την τεχνητή νοημοσύνη δεν είναι κάτι καινούργιο. Στα μέσα του 2018, μια ομάδα ομάδων ανθρωπίνων δικαιωμάτων και τεχνολογίας δημοσίευσε τη Διακήρυξη του Τορόντο , ζητώντας από όλους όσους εμπλέκονται στις διαδικασίες της τεχνητής νοημοσύνης να διατηρήσουν την εστίασή μας στο πώς αυτές οι τεχνολογίες θα επηρεάσουν τα μεμονωμένα ανθρώπινα όντα και τα ανθρώπινα δικαιώματα, γιατί σε έναν κόσμο συστημάτων μηχανικής μάθησης, ποιος θα φέρει την ευθύνη για την παραβίαση των ανθρωπίνων δικαιωμάτων; Το 2017, Καναδοί ειδικοί τεχνητής νοημοσύνης υποστήριξαν α απαγόρευση των δολοφόνων ρομπότ επίσης, ο οποίος είναι ουσιαστικά ο πιο απλός τρόπος για την υποστήριξη ηθικής τεχνητής νοημοσύνης. Η Γαλλία προσχώρησε πρόσφατα στον Καναδά δεσμεύονται δημόσια στην ηθική κατανόηση της τεχνητής νοημοσύνης. Τέλος, μερικές από τις μεγαλύτερες καναδικές εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένων Integrate.ai και Στοιχείο AI υποστηρίζει συνεχώς και φωνητικά τη διασταύρωση ηθικής και τεχνητής νοημοσύνης.

Δεν ξέρω αν όλοι καταλαβαίνουν πόσο μεγάλο ζήτημα είναι η ηθική πλευρά της τεχνητής νοημοσύνης όσον αφορά την κατανόηση της δικαιοσύνης και της προκατάληψης, είπε στο Techvibes νωρίτερα φέτος ο Διευθύνων Σύμβουλος και ιδρυτής του Integrate.ai, Steve Irvine. Δεν είναι ότι τα ρομπότ θα κατακτήσουν τον κόσμο. Αντίθετα, θα χρησιμοποιεί σύνολα δεδομένων από ιστορικά δεδομένα που έχουν συλλέξει πολλές εταιρείες, όπου θα υπάρχει μια εγγενής προκατάληψη του παρελθόντος. Χωρίς να προσαρμοστούμε σε αυτό, κινδυνεύουμε να διαιωνίσουμε τα στερεότυπα από τα οποία προσπαθούσαμε να προχωρήσουμε εδώ και δεκαετίες.

Η δημοσίευση αυτής της οδηγίας από τον Καναδά είναι ένα σημαντικό βήμα προς την ομαλοποίηση του πόσο βαθιά ριζωμένη θα έπρεπε να είναι η ηθική και η τεχνητή νοημοσύνη. Με τεράστιες εταιρείες όπως το Facebook και η Google να ελέγχονται συνεχώς όσον αφορά τον τρόπο με τον οποίο χειρίζονται το απόρρητο και τα δεδομένα - ενώ ταυτόχρονα οδηγούν στη δημιουργία και τη διάδοση μερικών από τις πιο εντυπωσιακές τεχνολογίες στον κόσμο - είναι σημαντικό να εξετάζουμε συνεχώς πώς οι νέες προόδους η τεχνολογία επηρεάζει τη ζωή ενός τακτικού πολίτη.

Βλέπετε πολλά πράγματα στις εφημερίδες γύρω από τις μεγάλες εταιρείες και πώς επιλέγουν να τηρούν ή να μην τηρούν το απόρρητο, λέει ο Benay. Όχι ότι οι γραμμές μάχης χαράσσονται γύρω από αξίες, αλλά υπάρχουν βαθιές και σκληρές συζητήσεις που πρέπει να γίνουν γύρω από αυτό το θέμα, και το μόνο που προσπαθούμε να κάνουμε είναι να βεβαιωθούμε ότι είμαστε σε καλή θέση σε εθνικό επίπεδο για να βεβαιωθούμε ότι είμαστε ικανοί κάνοντας αυτές τις συνομιλίες.

Kategori: Νέα