Σήμερα έμαθα για τα ρυθμιστικά AI της Intel που φιλτράρουν την κατάχρηση διαδικτυακών παιχνιδιών

Τον προηγούμενο μήνα Κατά τη διάρκεια της προεπιλεγμένης εκπομπής GDC Η Intel ανακοίνωσε Υπνος, Ένα νέο εργαλείο τεχνητής νοημοσύνης που ελπίζει να μειώσει την ποσότητα τοξικότητας που πρέπει να κάνουν οι παίκτες σε φωνητική συνομιλία. Σύμφωνα με την Intel, η εφαρμογή “χρησιμοποιεί τεχνητή νοημοσύνη για τον εντοπισμό και τη βελτίωση του ήχου με βάση τις προτιμήσεις των χρηστών”. Το φίλτρο λειτουργεί με εισερχόμενο ήχο, ενεργώντας ως ένα επιπλέον επίπεδο μετριοπάθειας που ελέγχεται από τον χρήστη εκτός από αυτό που προσφέρει πραγματικά η πλατφόρμα ή η υπηρεσία.

Είναι μια ευγενική προσπάθεια, αλλά υπάρχει κάτι απαίσιο αστείο για τη διεπαφή Bleep, η οποία περιγράφει λεπτομερώς όλες τις διαφορετικές κατηγορίες κακοποίησης που ενδέχεται να συναντήσουν οι χρήστες στο διαδίκτυο, σε συνδυασμό με τμήματα για τον έλεγχο της ποσότητας κακοποίησης που θέλουν να ακούσουν οι χρήστες. Οι κατηγορίες οπουδήποτε κυμαίνονται από “επιθετικότητα” έως “LGBTQ + μίσος”, “misogyny”, “ρατσισμός και ξενοφοβία” και “λευκός εθνικισμός”. Υπάρχει ακόμη μια εναλλαγή για τη λέξη Ν. Σελίδα του Bleep Δείχνει ότι δεν είναι ακόμη στη δημόσια έκδοση beta, επομένως όλα αυτά ενδέχεται να αλλάξουν.

Τα φίλτρα περιλαμβάνουν “επιθετικότητα” και “misogyny” …
Πίστωση: Intel Corporation

… και ο διακόπτης “N-word”.
εικόνα: Intel Corporation

Με την πλειοψηφία αυτών των κατηγοριών, το Bleep φαίνεται να δίνει στους χρήστες μια επιλογή: Θέλετε να εξαιρέσετε οποιαδήποτε, κάποια, τα περισσότερα ή όλη την προσβλητική γλώσσα; Όπως η επιλογή από ένα σωρό τοξικών πολτών στο Διαδίκτυο, η διεπαφή της Intel δίνει στους παίκτες την επιλογή να ξεχωρίζουν σε μια ήπια εξυπηρέτηση επιθετικότητας ή ονόματα κλήσεων στα διαδικτυακά παιχνίδια τους.

Το Bleep λειτουργεί εδώ και δύο χρόνια – PCMag Σημειώσεις Η Intel μίλησε για αυτήν την πρωτοβουλία στο GDC 2019 – και συνεργάζεται με επαγγελματίες διαχείρισης της AI Πνεύμα AI Σχετικά με το πρόγραμμα. Αλλά τροποποιώντας χώρους στο Διαδίκτυο χρησιμοποιώντας τεχνητή νοημοσύνη Δεν είναι εύκολο Έδειξε επίσης πλατφόρμες όπως το Facebook και το YouTube. Αν και τα αυτοματοποιημένα συστήματα μπορούν να αναγνωρίσουν άμεσα προσβλητικές λέξεις, συχνά δεν λαμβάνουν υπόψη το πλαίσιο και τις αποχρώσεις ορισμένων προσβολών και απειλών. Η διαδικτυακή τοξικότητα έρχεται σε τόσες πολλές συνεχώς εξελισσόμενες μορφές που μπορεί να είναι δύσκολο να εντοπιστεί ακόμη και στα πιο προηγμένα συστήματα διαμόρφωσης AI.

“Ενώ αναγνωρίζουμε ότι λύσεις όπως το Bleep δεν διαγράφουν το πρόβλημα, πιστεύουμε ότι είναι ένα βήμα προς τη σωστή κατεύθυνση, δίνοντας στους παίκτες ένα εργαλείο για τον έλεγχο της εμπειρίας τους”, δήλωσε ο Roger Chandler της Intel κατά τη διάρκεια της εκπομπής του GDC. Η Intel λέει ότι ελπίζει να κυκλοφορήσει το Bleep αργότερα φέτος, και προσθέτει ότι η τεχνολογία βασίζεται στις συσκευές επιτάχυνσης ανίχνευσης ομιλίας AI, υποδεικνύοντας ότι το λογισμικό μπορεί να βασίζεται σε υλικό Intel για εκτέλεση.

READ  Το In-kernel WireGuard βρίσκεται στο δρόμο για το FreeBSD και το δρομολογητή pfSense

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *