Connect with us

Διεθνή

Στο Messenger φτιάχνουν ακατάλληλα emoji με την τεχνητή νοημοσύνη της Meta

Published

on

Meta πριν από λίγο καιρό εγκαινίασε ένα νέο εργαλείο τεχνητής νοημοσύνης, το οποίο έχει κάνει πάταγο στο Messenger, αλλά για τον λάθος λόγο, καθώς οι χρήστες βρίσκουν την ευκαιρία να δημιουργήσουν ακατάλληλα emoji.

Συγκεκριμένα, χρησιμοποιούν το μοντέλο γλώσσας AILlama 2, που θεωρητικά αποτελεί τον αντίπαλο του ChatGPT στο τομέα της τεχνητής νοημοσύνης και μέσω αναγραμματισμών ή ορθογραφικών λαθών παρακάμπτουν τα συστήματα ασφαλείας για ακατάλληλο περιεχόμενο.

Η ανάρτηση ξεπέρασε τις δύο εκατομμύρια προβολές και διάφοροι χρήστες μοιράστηκαν τα emoji που δημιούργησαν, εγείροντας ερωτήματα, αφού η πλειοψηφία των δημιουργών δεν έκανε κάποιο «χακάρισμα», αλλά χρησιμοποίησε κοινές γνώσεις για να παρακάμψει την ασφάλεια.

Χαρακτηριστικά, ο καθηγητής διαδικτυακών σπουδών στο Πανεπιστήμιο Curtin, Tama Leaver, έκανε ανάρτηση και σημείωσε τα εξής:

«Εάν μέρος των διασφαλίσεων του Meta μπλοκάρει τον όρο “γυμνό”, αλλά η τεχνητή νοημοσύνη παράγει γυμνές φιγούρες, υπάρχουν ξεκάθαρα μακροχρόνια ερωτήματα σχετικά με το πόσο αποτελεσματικές είναι πραγματικά αυτές οι διασφαλίσεις».

Έτσι, δημιουργούνται ερωτήματα που αφορούν τόσο τις αποφάσεις που μπορεί να πάρει η τεχνητή νοημοσύνη, όσο και αν πράγματι λειτουργεί η ασφάλεια που υπόσχεται η Meta, ειδικά από τη στιγμή που λανσάρει ως πειραματική την εφαρμογή της, ευελπιστώντας να μαζέψει εμπειρία από την χρήση που θα κάνει ο κόσμος που συνδέεται στις εφαρμογές της.

Ροή ειδήσεων

Advertisement