• Arkè Media Group
  • Radio Preveza 93
  • Arkè Advertising
  • Όροι και Προϋποθέσεις
  • Επικοινωνία
Σάββατο, 18 Απριλίου 2026, 16:15
  • Αρχική
  • Κόσμος
  • Πολιτική
  • Τοπικά
  • Περιφερειακά
  • Υγεία
No Result
View All Result
PrevezaPost
No Result
View All Result
ADVERTISEMENT
Home Κόσμος

Τεχνητή Νοημοσύνη: «Μπορεί να καταστρέψει το ανθρώπινο είδος»

Από ΟΜΑΔΑ ΣΥΝΤΑΞΗΣ
14 Μαρτίου 2024
στα Κόσμος
Share on FacebookShare on Twitter


Σοβαρούς κινδύνους που μπορεί να φτάσουν μέχρι και στην εξάλειψη του ανθρώπινου είδους κρύβει η αλματώδης ανάπτυξη της Τεχνητής Νοημοσύνης, σύμφωνα με νέα έρευνα που έγινε για λογαριασμό του Στέιτ Ντιπάρτμεντ.

Η έρευνα αφορούσε τα αμερικανικά συμφέροντα και την εθνική ασφάλεια της χώρας. Βασίστηκε σε συνεντεύξεις με περισσότερους από 200 ανθρώπους για πάνω από ένα χρόνο. Ανάμεσά τους ήταν κορυφαία στελέχη εταιρειών τεχνητής νοημοσύνης, ερευνητές κυβερνοασφάλειας, εμπειρογνώμονες σε θέματα όπλων μαζικής καταστροφής και αξιωματούχοι εθνικής ασφάλειας της κυβέρνησης.

Η έκθεση, δημοσιεύθηκε αυτή την εβδομάδα από την Gladstone AI, και καταλήγει στο ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».

Αξιωματούχος του Στέιτ Ντιπάρτμεντ επιβεβαίωσε ότι η υπηρεσία του ανέθεσε την εν λόγω έρευνα, στο μέτρο που αξιολογεί συνεχώς τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο της προστασίας των εθνικών συμφερόντων στο εσωτερικό και στο εξωτερικό. Ο ίδιος αξιωματούχος έσπευσε να προσθέσει ότι τα ευρήματα της έκθεσης δεν αποτελούν ούτε απηχούν τις απόψεις της αμερικανικής κυβέρνησης.

«Η τεχνητή νοημοσύνη είναι ήδη μια τεχνολογία που μετασχηματίζει οικονομικά. Θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες», δήλωσε ο Τζέρεμι Χάρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI.

«Ωστόσο, θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους … Ένας αυξανόμενος όγκος στοιχείων –συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο– υποδηλώνει ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν δυνητικά να γίνουν ανεξέλεγκτες», πρόσθεσε.

Οι ερευνητές προειδοποιούν ωστόσο για δύο βασικούς κινδύνους: Πρώτον, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».

«Η άνοδος της τεχνητής νοημοσύνης και της AGI (τεχνητής γενικής νοημοσύνης) έχει την δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν τη δημιουργία των πυρηνικών όπλων», αναφέρει η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης.



Πηγή

www.enikos.gr

Previous Post

«Ο Στ. Κασσελάκης υιοθετεί απόλυτα την πολιτική του προκατόχου του, προσαρμοσμένη στην άγνοιά του»

Next Post

«Εξαφανισμένα τα μέτρα για την ακρίβεια από τα site της προπαγάνδας Μητσοτάκη»

Next Post

«Εξαφανισμένα τα μέτρα για την ακρίβεια από τα site της προπαγάνδας Μητσοτάκη»

PrevezaPost

PrevezaPost

  • Arkè Media Group
  • Radio Preveza 93
  • Arkè Advertising
  • Όροι και Προϋποθέσεις
  • Επικοινωνία

© 2022 Prevezapost Inspired by Arkè Adv Partner of Arkè Media

No Result
View All Result
  • Αρχική
  • Κόσμος
  • Πολιτική
  • Τοπικά
  • Περιφερειακά
  • Υγεία

© 2022 Prevezapost Inspired by Arkè Adv Partner of Arkè Media

Εμείς και οι συνεργάτες μας αποθηκεύουμε ή έχουμε πρόσβαση σε πληροφορίες σε συσκευές, όπως cookies και επεξεργαζόμαστε προσωπικά δεδομένα, όπως μοναδικά αναγνωριστικά και τυπικές πληροφορίες που αποστέλλονται από μια συσκευή για τους σκοπούς που περιγράφονται παρακάτω. Μπορείτε να κάνετε κλικ για να συναινέσετε στην επεξεργασία από εμάς και τους συνεργάτες μας για τους εν λόγω σκοπούς. Εναλλακτικά, μπορείτε να κάνετε κλικ για να αρνηθείτε να συναινέστε ή να αποκτήσετε πρόσβαση σε πιο λεπτομερείς πληροφορίες και να αλλάξετε τις προτιμήσεις σας πριν συναινέσετε. Οι προτιμήσεις σας θα ισχύουν μόνο για αυτόν τον ιστότοπο. Λάβετε υπόψη ότι κάποια επεξεργασία των προσωπικών σας δεδομένων ενδέχεται να μην απαιτεί τη συγκατάθεσή σας, αλλά έχετε το δικαίωμα να αρνηθείτε αυτήν την επεξεργασία. Μπορείτε πάντα να αλλάξετε τις προτιμήσεις σας επιστρέφοντας σε αυτόν τον ιστότοπο ή επισκεπτόμενοι την πολιτική απορρήτου μας.