Οι ίδιες οι πλατφόρμες –YouTube, Meta, TikTok– διαβεβαιώνουν ότι δεν υπάρχει «λίστα απαγορευμένων λέξεων», ότι όλα κρίνονται με βάση το πλαίσιο και την πρόθεση. Όμως η πραγματικότητα είναι πιο θολή.
Στο Διαδίκτυο κυκλοφορεί σχεδόν ως βεβαιότητα ότι υπάρχει μια μυστική λίστα με απαγορευμένες λέξεις: όροι που, αν τους γράψεις, ο αλγόριθμος «σε θάβει», σε αποκόβει από το κοινό σου ή και σε τιμωρεί.
Κάπως έτσι γεννήθηκε ένα ολόκληρο ιδίωμα, το περίφημο algospeak: οι χρήστες λένε «unalived» αντί για «killed», «pew pews» αντί για όπλα, «seggs» αντί για sex. Είναι μια γλώσσα μισή σοβαρή, μισή γελοία, που τυλίγει δύσκολα ή ευαίσθητα θέματα σε παιδικές λέξεις, μόνο και μόνο για να αποφύγει έναν αόρατο κίνδυνο.
Οι ίδιες οι πλατφόρμες –YouTube, Meta, TikTok– διαβεβαιώνουν ότι δεν υπάρχει «λίστα απαγορευμένων λέξεων», ότι όλα κρίνονται με βάση το πλαίσιο και την πρόθεση. Όμως η πραγματικότητα είναι πιο θολή: ανάμεσα στις επίσημες πολιτικές και στην εμπειρία των δημιουργών περιεχομένου απλώνεται μια γκρίζα ζώνη, όπου η αυτολογοκρισία ανθίζει.
Οι εταιρείες υπόσχονται κανόνες διαφάνειας
Η αφετηρία είναι απλή: κανείς δεν ξέρει πραγματικά γιατί ένα βίντεο «πάει άπατο». Μπορεί να ήταν απλώς κακό, άστοχο ή αδιάφορο. Μπορεί όμως και να χτυπήθηκε από κάποιον αλγόριθμο που το θεώρησε ακατάλληλο για διαφημιστές, πολύ πολιτικό, πολύ βίαιο, πολύ «τοξικό». Οι εταιρείες υπόσχονται κανόνες διαφάνειας, αναφορές για την εποπτεία περιεχομένου, προειδοποιήσεις προς τους χρήστες όταν πέφτουν παραβιάσεις. Όμως το τι πραγματικά βλέπει ο τελικός χρήστης στη ροή του αποφασίζεται από περίπλοκα, αδιαφανή συστήματα που συνδυάζουν απίστευτους όγκους δεδομένων και συνεχώς μεταβαλλόμενα κριτήρια. Εκεί, μέσα στο «μαύρο κουτί», γεννιούνται οι υποψίες – και μαζί τους, οι «απαγορευμένες» λέξεις.
Αποφεύγει συνειδητά να πει τη λέξη «YouTube»
Ο Άλεξ Περλμαν, δημιουργός περιεχομένου με εκατομμύρια ακόλουθους σε TikTok, Instagram και YouTube, είναι από εκείνους που ζουν καθημερινά με αυτή την αβεβαιότητα. Από τη μια, κάνει χιουμοριστικά βίντεο· από την άλλη, δεν διστάζει να μπει σε βαθιά πολιτικά νερά. Στις δικές του αναλύσεις βλέπει καθαρά μοτίβα που δεν εξηγούνται εύκολα με τις επίσημες τοποθετήσεις των πλατφορμών.
Όπως λέει ο ίδιος, στο TikTok αποφεύγει συνειδητά να πει τη λέξη «YouTube» ή φράσεις όπως «πηγαίνετε στο κανάλι μου στο YouTube», γιατί –σύμφωνα με τα analytics που παρακολουθεί– κάθε φορά που το έκανε, η απήχηση του βίντεο κατέρρεε. Η λογική είναι απλή: αν το TikTok ζει από την προσοχή και τον χρόνο που περνά ο χρήστης στην εφαρμογή, γιατί να ευνοήσει ένα βίντεο που καλεί το κοινό να φύγει και να πάει στον ανταγωνιστή;
Ακόμη πιο ανησυχητική ήταν, για τον Περλμαν, η εμπειρία με τα βίντεο για τον Τζέφρι Έπσταϊν. Σε μια περίοδο που το θέμα βρισκόταν παντού στις ειδήσεις, πολλές από τις αναρτήσεις του στο TikTok αφαιρέθηκαν μέσα σε μία μέρα, χωρίς σαφή εξήγηση. Στο Instagram και το YouTube παρέμειναν ανέγγιχτες.
Οι προσφυγές του απορρίφθηκαν και στον λογαριασμό του έμειναν «strikes» που απειλούσαν τη δυνατότητά του να βγάζει χρήματα από την πλατφόρμα. Δεν του υποδείχθηκε ούτε μία συγκεκριμένη φράση, ούτε ένα ξεκάθαρο σημείο παραβίασης.
Μπροστά σε αυτό το κενό, κατέφυγε στο algospeak: άρχισε να αναφέρεται στον Έπσταϊν ως «ο Άνθρωπος του Νησιού» [εννοώντας το νησί όπου βρισκόταν η «βίλα των οργίων» του Έπσταϊν], ελπίζοντας ότι έτσι θα παρακάμψει τα φίλτρα. Όμως η κωδικοποιημένη γλώσσα έχει και αυτή τίμημα: ένα κομμάτι του κοινού μένει απ’ έξω, δεν καταλαβαίνει για ποιον μιλάς, χάνεται το βάρος της καταγγελίας.
Παρασκηνιακές παρεμβάσεις και αλγοριθμική φαντασία
Οι πλατφόρμες επιμένουν ότι τέτοια συμπεράσματα είναι παρεξηγήσεις. Εξηγούν πως οι αλγόριθμοι σχεδιάζονται για να προβλέπουν τι θα ενδιαφέρει τον κάθε χρήστη προσωπικά, με βάση τις προηγούμενες αλληλεπιδράσεις του, και πως τα μόνο «φρένα» που παρεμβαίνουν είναι οι κανόνες κοινοτήτων για ρητορική μίσους, βία, παραπληροφόρηση, πορνογραφία.
Τυπικά, αυτό ισχύει. Όμως τα τελευταία χρόνια έχουν αποκαλυφθεί επανειλημμένα παρασκηνιακές παρεμβάσεις: από τις οδηγίες της TikTok προς τους moderators να «θαμπώνουν» περιεχόμενο από «άσχημους» ή ΛΟΑΤΚΙ+ χρήστες, μέχρι το «μυστικό» κουμπί heating που προωθούσε επιλεκτικά συγκεκριμένα βίντεο, ή τις κατηγορίες για συστηματική υποβάθμιση φιλοπαλαιστινιακού περιεχομένου σε Facebook και Instagram. Ακόμη κι αν οι εταιρείες μιλούν για «λάθη» ή παρωχημένες πρακτικές, το μήνυμα που μένει είναι ότι η υπόσχεση περί ουδέτερης, «δημοκρατικής» ροής περιεχομένου δεν ανταποκρίνεται πλήρως στην πράξη.
Μέσα σε αυτό το καθεστώς αβεβαιότητας, οι χρήστες καταφεύγουν σε αυτό που οι ερευνητές ονομάζουν «αλγοριθμική φαντασία» (algorithmic imaginary): ένα σύνολο πεποιθήσεων, μισών αληθειών και μύθων για το πώς υποτίθεται ότι λειτουργούν οι αλγόριθμοι. Ακόμη κι αν αυτές οι πεποιθήσεις είναι λανθασμένες, επηρεάζουν τη συμπεριφορά – και τελικά, έμμεσα, επηρεάζουν και τον αλγόριθμο, που «μαθαίνει» από τα μοτίβα της χρήσης.
Χαρακτηριστικό παράδειγμα ήταν το φανταστικό «μουσικό φεστιβάλ» στο Λος Άντζελες: χιλιάδες χρήστες, πιστεύοντας ότι οι πλατφόρμες κρύβουν τις διαδηλώσεις κατά των επιχειρήσεων της ICE [Υπηρεσία Μετανάστευσης και Τελωνειακής Επιβολής των Ηνωμένων Πολιτειών], άρχισαν να τις αποκαλούν «φεστιβάλ», να μιλούν για «συναυλίες» και «σκηνές» αντί για πορείες και συνθήματα. Ούτε εκεί υπήρξαν σαφείς αποδείξεις ότι η λογοκρισία ήταν πραγματική· όμως με το που καθιερώθηκε ο κώδικας, οι ίδιοι οι χρήστες άρχισαν να τον αναπαράγουν, να τον ερμηνεύουν ως επιβεβαίωση μιας απειλής που ίσως δεν υπήρξε ποτέ.
To παράδοξο που γεννιέται
Κάπως έτσι φτάνουμε στο παράδοξο: από τη μία, οι εταιρείες αρνούνται ότι έχουν λίστα απαγορευμένων λέξεων· από την άλλη, οι ίδιοι οι δημιουργοί περιεχομένου –όπως ο Περλμαν– μιλούν για σαφή μοτίβα «τιμωρίας» όταν θίγουν ορισμένα θέματα ή χρησιμοποιούν ορισμένες διατυπώσεις.
Οι μελέτες δείχνουν ότι οι πλατφόρμες παρεμβαίνουν διαρκώς για να φιλτράρουν, να περιορίσουν, να «παγώσουν» περιεχόμενο που θεωρούν επικίνδυνο για το brand τους ή για τη σχέση τους με ρυθμιστικές αρχές και διαφημιστές. Παράλληλα, η επιθυμία των χρηστών να επιβιώσουν σε αυτό το οικοσύστημα γεννά μια κουλτούρα δημιουργικής αποφυγής: άλλες λέξεις για τη βία, άλλοι κώδικες για τη σεξουαλικότητα, υπαινιγμοί και μισόλογα για την πολιτική.
Το αποτέλεσμα είναι ένας ιδιότυπος ψηφιακός πουριτανισμός. Θέματα όπως ο θάνατος, η αυτοκτονία, η σεξουαλική κακοποίηση, η ένοπλη βία, αλλά και ευρύτερες πολιτικές συγκρούσεις, «σπρώχνονται» έξω από το κέντρο της δημόσιας σφαίρας ή εμφανίζονται μόνο σε αποστειρωμένη, κωδικοποιημένη μορφή.
Όταν η πλειονότητα του κοινού ενημερώνεται πλέον από τις ροές των social media, αυτό σημαίνει πρακτικά ότι κάποια θέματα γίνονται λιγότερο ορατά, λιγότερο συζητήσιμα, λιγότερο νοητά. Δεν υπάρχει ίσως ένα PDF με τον τίτλο «Απαγορευμένες λέξεις», αλλά υπάρχει μια πραγματική, καθημερινή επιλογή: «Αν πω αυτό όπως είναι, θα με θάψει ο αλγόριθμος;» Και όλο και πιο συχνά, η απάντηση είναι η αυτολογοκρισία.
Ο Άλεξ Περλμαν και οι υπόλοιποι δημιουργοί δεν είναι αλάνθαστοι αναλυτές συστημάτων. Και πολλοί ερευνητές θυμίζουν ότι, αν όντως οι πλατφόρμες ήθελαν να εξαφανίσουν συγκεκριμένες λέξεις, θα είχαν απλώς μπλοκάρει και τις παραλλαγές του algospeak. Ωστόσο, η ουσία δεν βρίσκεται μόνο στο τι κάνουν τεχνικά οι εταιρείες, αλλά στο πώς μας έχουν μάθει να σκεφτόμαστε.
Όσο οι κανόνες παραμένουν θολοί, όσο οι μηχανισμοί εποπτείας δεν είναι πραγματικά κατανοητοί, τόσο θα πολλαπλασιάζονται οι «απαγορευμένες λέξεις», όχι επειδή βρίσκονται σε κάποια μυστική λίστα, αλλά επειδή τις έχουμε ήδη σβήσει από μόνοι μας.
Social Media: The "Forbidden" Words Blocked by Algorithms – Internet Expert Explains
Social media platforms like YouTube, Meta, and TikTok claim they don't use "blacklists" of words, but that censorship is based on context and intent. However, content creators' experiences suggest otherwise, with the existence of a "gray zone" where self-censorship is common. This practice has led to the creation of "algospeak," a language where users replace words considered problematic by algorithms with milder expressions, such as "unalived" instead of "killed". Alex Perlman, a popular content creator, reports that mentioning YouTube on TikTok leads to a decrease in his videos' reach, suggesting that TikTok doesn't want to direct audiences to competing platforms. Furthermore, videos about Jeffrey Epstein were removed from TikTok while remaining untouched on Instagram and YouTube, reinforcing suspicions of targeted censorship. Platform algorithms are complex and opaque, making it difficult to understand why a video isn't shown or is removed. Companies promise transparency and reports, but the reality is that decisions are made by systems that combine vast amounts of data and constantly changing criteria. This lack of transparency and the possibility of arbitrary censorship create a climate of uncertainty and lead content creators to self-censor in order to avoid punishment or loss of reach. This phenomenon raises questions about freedom of speech and the responsibility of social media platforms.
You Might Also Like
Όταν γυναίκες εκφοβίζουν γυναίκες, στον χώρο εργασίας!
Dec 14
Καρογιάν: Η ΔΗΠΑ ανταποκρινόμενη στο καθήκον της θα υπερψηφίσει τον Κρατικό Προϋπολογισμό
Dec 15
Γιώργος Χριστοδουλίδης: Ψάχνοντας μέσα μου, συναντώ τους άλλους
Dec 20
Β. Καραγιάννης στο «Γ»: «Θέλουμε αθλητικογράφους που θα κοντραριστούν με τα κατεστημένα»
Dec 21
Εύκολοι «φίλοι», βολικοί «εχθροί»
Dec 21