Στείλτε μας τα άρθρα σας στο info@troktico.com 

ΤΑ ΡΟΜΠΟΤ ΔΟΛΟΦΟΝΟΙ ΕΙΣΒΑΛΛΟΥΝ ΣΤΗ ΖΩΗ ΜΑΣ

By Τροκτικο, 1 May, 2025

Η οργάνωση HumanRights Watch από κοινού με το Πανεπιστήμιο του Harvard εξέδωσαν στις 28 Απριλίου 2025 έκθεση σχετική με τα ρομπότ-δολοφόνους (“killer robots”), τα αυτοματοποιημένα όπλα τεχνητής νοημοσύνης που μπορούν να σκοτώνουν ανθρώπους χωρίς ανθρώπινες οδηγίες ή εποπτεία, ενόψει της πρώτης συνεδρίασης της Γενικής Συνέλευσης των Ηνωμένων Εθνών για τα αυτόνομα οπλικά συστήματα στη Νέα Υόρκη.

 

Η έκθεση αναφέρεται «στην έκκληση, που υποστηρίζεται από τουλάχιστον 129 χώρες, για την επείγουσα διαπραγμάτευση και υιοθέτηση ενός νομικά δεσμευτικού κειμένου για την απαγόρευση και τη ρύθμιση των αυτόνομων οπλικών συστημάτων».

 

Περιγράφονται έξι κύριοι κίνδυνοι για τα ανθρώπινα δικαιώματα από τα ρομπότ-δολοφόνους. Μεταξύ αυτών των κινδύνων, ο μεγαλύτερος κίνδυνος που ελλοχεύει αφορά στο δικαίωμα να μην στερείται κανείς αυθαίρετα τη ζωή του, το οποίο απαιτεί η χρήση βίας να είναι αναγκαία για την επίτευξη ενός νόμιμου στόχου βάσει της αρχής της αναλογικότητας.

 

Ένα άλλο δικαίωμα που τίθεται σε κίνδυνο από τα συστήματα τεχνητής νοημοσύνης είναι το δικαίωμα του συνέρχεται. Η έκθεση εκφράζει την ανησυχία ότι τα ρομπότ-δολοφόνοι δεν θα έχουν την ικανότητα να διακρίνουν επαρκώς μεταξύ βίαιων και ειρηνικών διαδηλώσεων, με αποτέλεσμα να χρησιμοποιούνται πολύ συχνά για την παρέμβαση σε αυτό το δικαίωμα.

 

Επιπλέον, η χρήση των ρομπότ δολοφόνων σε διαδηλώσεις θα οδηγήσει τους πολίτες στην παύση άσκησης του δικαιώματος του συνέρχεσθαι με ειρηνικό τρόπο. Στην έκθεση επισημαίνεται ότι τα ρομπότ δολοφόνοι ενέχουν κίνδυνο για την αρχή της απαγόρευσης των διακρίσεων, καθώς «η αλγοριθμική προκατάληψη μπορεί να επηρεάσει δυσανάλογα και αρνητικά τις ήδη περιθωριοποιημένες ομάδες».

 

Όπως συμβαίνει με όλα τα συστήματα τεχνητής νοημοσύνης, τα προβλήματα με τα αυτοματοποιημένα όπλα οφείλονται στην έλλειψη επεξηγηματικότητας και διαφάνειας όσον αφορά τη διαδικασία λήψης αποφάσεων. Αυτό είναι γνωστό ως το «πρόβλημα του μαύρου κουτιού», το οποίο εξηγεί πώς η πολυπλοκότητα και διάφοροι άλλοι παράγοντες που υπεισέρχονται στις αποφάσεις της τεχνητής νοημοσύνης έχουν ως αποτέλεσμα την «αδυναμία μας να δούμε πώς τα συστήματα βαθιάς εκμάθησης λαμβάνουν τις αποφάσεις τους».

 

Plain text

  • No HTML tags allowed.
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.