Κοινωνία

Πώς δουλεύει η ομάδα “αστυνόμευσης” αναρτήσεων στο facebook

Η Μόνικα Μπίκερτ, διευθύντρια παγκόσμιας πολιτικής του Facebook, εξηγεί πώς ακριβώς δουλεύει η ομάδα «αστυνόμευσης» των αναρτήσεων που δημοσιεύονται στο πιο δημοφιλές μέσο κοινωνικής δικτύωσης στον κόσμο

Η Μόνικα Μπίκερτ είναι ένα σοβαρό πρόσωπο με εντυπωσιακές περγαμηνές. Πριν αναλάβει την θέση της διευθύντριας παγκόσμιας πολιτικής του Facebook, η πτυχιούχος της Νομικής του Χάρβαρντ είχε εργαστεί ως βοηθός εισαγγελέα στη δίωξη διεφθαρμένων κρατικών αξιωματούχων.

Στις 2 Φεβρουαρίου η Μπίκερτ μίλησε στο συνέδριο της Νομικής του Πανεπιστημίου της Σάντα Κλάρα που διοργάνωσε ο Έρικ Γκόλντμαν, διευθυντής του Ινστιτούτου Νομικής για την Υψηλή Τεχνολογία, και περιέγραψε εναργώς τον τρόπο που λειτουργεί η ομάδα διαχείρισης περιεχομένου και πολιτικών του Facebook.

Η Μπίκερτ τόνισε πως οι άνθρωποι είναι ουσιωδώς απαραίτητοι για το έργο της διαχείρισης περιεχομένου, λέγοντας ότι το Facebook πλέον απασχολεί 7.500 διαχειριστές περιεχομένου ανά τον κόσμο, εκπληρώνοντας τον στόχο προσλήψεων που είχε θέσει ο Μαρκ Ζούκερμπεργκ τον Μάιο του 2017, όταν η εταιρεία απασχολούσε μόνο 4.500 υπαλλήλους στη θέση αυτή. Με άλλα λόγια τους τελευταίους 8 μήνες προσέλαβαν σχεδόν ισάριθμους με το σύνολο όλων των υπαλλήλων ανταγωνιστριών εταιριών όπως το Twitter ή το Snapchat.

Και οι περισσότεροι εξ αυτών δεν βρίσκονται στη Silicon Valley.

«Οι διαχειριστές περιεχομένου προσλαμβάνονται συνήθως για τις γλωσσικές γνώσεις τους και δεν διαθέτουν κάποιο συγκεκριμένο πεδίο εξειδίκευσης. Οι περισσότεροι προσλαμβάνονται, εκπαιδεύονται, μαθαίνουν όλες τις πολιτικές του Facebook και εν ευθέτω χρόνω αποκτούν ειδίκευση σε κάποιο πεδίο» τόνισε στην ομιλία της η Μπίκερτ και πρόσθεσε: «Η ομάδα επιθεώρησης περιεχομένου είναι δομημένη έτσι ώστε να μπορούμε να παρέχουμε κάλυψη παγκοσμίως 24/7. Αυτό σημαίνει πως συχνά προσπαθούμε να προσλάβουμε κάποιον που μιλάει βιρμανέζικα στο Δουβλίνο ή αναζητούμε άλλους τρόπους να στελεχώσουμε τους γλωσσικούς συνδυασμούς ώστε να ελέγχεται το περιεχόμενο και να είμαστε σε θέση να ανταποκριθούμε εντός 24 ωρών.Αυτός είναι ο στόχος μας. Δεν τον επιτυγχάνουμε πάντα». Καθώς τα social media έχουν εξελιχθεί σε πεδίο μάχης για πολιτιστικά και πολιτικά ζητήματα, η διαχείριση του περιεχομένου πλέον αποτελεί πιεστικό θέμα για τις σημαντικότερες εταιρείες τεχνολογίας.

Το συνέδριο στη Σάντα Κλάρα έπεται ενός άλλου που πραγματοποιήθηκε πέρυσι στο UCLA και εστίασε στην προσπάθεια που απαιτείται για να αντιμετωπίζει κανείς τη «στοιχειώδη αθλιότητα των ανθρώπων».

Οι διαδικτυακές εταιρίες έχουν αναλάβει τον παραδοσιακό ρόλο των κυβερνήσεων στο να επιτρέπουν ή να απαγορεύουν την έκφραση απόψεων στους εικονικούς τους τοίχους. Και όλες προσπαθούν να ανταποκριθούν με αίσθημα δικαίου.

Εκτός από το Facebook, εκπρόσωποι από τις εταιρείες Google, Pinterest, Reddit, Yelp και πολλές άλλες επιχειρήσεις που δραστηριοποιούνται στον τομέα αυτόν μίλησαν στο συνέδριο. «Προσπαθούμε να εξασφαλίσουμε πως τα πρότυπα μας είναι επαρκώς σαφή ώστε να μην υπάρχει χώρος για διαφορετικές ερμηνείες» λέει η Μόνικα Μπίκερτ.

Προκειμένου να καταλάβουμε την σχετική κλίμακα της προσπάθειας του Facebook, η Νόρα Πάκετ από την Google είπε πως ολόκληρη η ομάδα ασφάλειας και εμπιστοσύνης της εταιρείας αριθμεί 10.000 άτομα που δεν είναι φυσικά μόνο ελεγκτές και ρυθμιστές περιεχομένου.

Στην άλλη πλευρά του φάσματος υπάρχει βέβαια και το παράδειγμα του Pinterest, όπου η ομάδα που επιβλέπει τις αναρτήσεις 200 εκ. χρηστών, σύμφωνα με την Άντελιν Κάι, αποτελείται από μόνο 11 άτομα σε καθεστώς πλήρους απασχόλησης.

Στο Facebook υπάρχουν 60 άτομα μόνο για να σχεδιάζουν τις πολιτικές που πρέπει να εφαρμόζουν και να ακολουθούν οι διαχειριστές περιεχομένου της εταιρείας. Οι πολιτικές αυτές δεν είναι όσα διαβάζετε στους όρους και προϋποθέσεις χρήσεις του Facebook ή οι κανόνες κοινότητας. Πρόκειται για πολύ συγκεκριμένες, εξειδικευμένες οδηγίες για τους διαχειριστές περιεχομένου που αναθεωρούνται διαρκώς από την ομάδα της Μπίκερτ σε μία ευρύτερη εσωτερική συνάντηση της ομάδας του Facebook που πραγματοποιείται κάθε δύο εβδομάδες.

Για παράδειγμα, με βάση έναν κανόνα που αναφέρθηκε σε ένα θέμα του Guardian, το γυμνό περιεχόμενο απαγορεύεται γενικά στο Facebook, ωστόσο, επιτρέπεται να αναρτηθούν ιστορικές φωτογραφίες του Ολοκαυτώματος όπου ενήλικα θύματα έχουν απαθανατιστεί γυμνά. «Αυτές οι πολιτικές επικαιροποιούνται κάθε εβδομάδα. Κάποιες φορές η αλλαγή είναι κάτι , για παράδειγμα μία λέξη στα Κορεατικά που δεν χρησιμοποιείται πια ως βρισιά, οπότε τώρα κάποιοι την αλλάζουν και πρέπει όλο αυτό να αξιολογηθεί διαφορετικά», εξήγησε ακόμη η Μπίκερτ.

Σε αυτή την ίδια συνάντηση ομάδες από διαφορετικά τμήματα (προγραμματιστές, νομικοί, ελεγκτές εξωτερικοί συνεργάτες όπως π.χ διάφορες ΜΚΟ) παρέχουν συστάσεις στην ομάδα της Μπίκερτ προκειμένου να συμπεριληφθούν στο εγχειρίδιο κανόνων. Η Μπίκερτ αποκαλεί αυτές τις συναντήσεις «μίνι νομοθετικές συνεδρίες».

Ο συνάδελφος της, Νιλ Ποττς, ο οποίος μίλησε αργότερα στο συνέδριο, τόνισε επίσης την ομοιότητα μεταξύ του τι κάνει το Facebook και τι κάνουν οι κυβερνήσεις.

«Στ’ αλήθεια κατά κάποιον τρόπο συμμεριζόμαστε τους στόχους της κυβέρνησης. Αν ο στόχος της κυβέρνησης είναι να προστατεύσει τους πολίτες της, οι οποίοι είναι οι χρήστες και η κοινότητά μας, νομίζω πως ο σκοπός είναι κοινός. Νιώθω πολύ άνετα να το μοιραστώ αυτό με τον Τύπο».

Ο λόγος για τον οποίο οι κανόνες για το περιεχόμενο είναι τόσο λεπτομερείς είναι πως το Facebook επιθυμεί να μειώσει την μεροληψία ή την κριτική στάση ως μεταβλητή των αποφάσεων που λαμβάνουν οι διαχειριστές περιεχομένου.

«Προσπαθούμε να εξασφαλίσουμε πως τα πρότυπα μας είναι επαρκώς σαφή ώστε να μην υπάρχει χώρος για διαφορετικές ερμηνείες» λέει η Μπίκερτ. Στη συνέχεια επισημαίνει: «Γνωρίζουμε πως κάποιοι θα διαφωνήσουν με αυτό.

Σε προσωπικό επίπεδο, οι διαχειριστές θα έχουν διαφορετικές ιδέες σχετικά με το βαθμό του γυμνού που θα έπρεπε να θεωρείται προσβλητικός ή το επίπεδο απεικόνισης βίας σε μια εικόνα που μας υποχρεώνει να κατεβάσουμε μια ανάρτηση. Ή το αν πρέπει να επιτρέπεται η χρήση κάποιων λέξεων. Τι αποτελεί ρατσιστική βρισιά; Έχουμε συγκεκριμένες οδηγίες ώστε ανεξαρτήτως του αν οι υπάλληλοί μας ζουν στις Φιλιππίνες, την Ινδία ή το Τέξας να παίρνουν την ίδια ακριβώς απόφαση».

Πρόκειται για πολύ συγκεκριμένες, εξειδικευμένες οδηγίες για τους διαχειριστές περιεχομένου που αναθεωρούνται διαρκώς από την ομάδα της Μπίκερτ σε μία ευρύτερη εσωτερική συνάντηση της ομάδας του Facebook που πραγματοποιείται κάθε δύο εβδομάδες.

Προκειμένου να εξασφαλίσουμε ότι αυτό θα συμβεί πραγματοποιούμε διαρκώς ελέγχους του έργου τους για να βεβαιωθούμε «ότι η ακρίβεια των αποφάσεων του συγκεκριμένου ατόμου βρίσκεται στο επίπεδο που επιθυμούμε και ανταποκρίνονται στις πολιτικές μας».

Βέβαια με τόσο συγκεκριμένους κανόνες τίθεται και το ζήτημα της αστοχίας. «Πάντα υπάρχουν περιπτώσεις που εξετάζουμε μία ανάρτηση και θεωρητικά αυτή δεν παραβιάζει την πολιτική μας γύρω από τη ρητορική μίσους, αλλά όταν το διαβάζεις σκέφτεσαι “όσο περισσότερο το κοιτάζω, τόσο πιο πολύ μοιάζει με επίθεση μίσους» ανέφερε η Μπίκερτ.

«Έτσι, λοιπόν, υπάρχουν και αυτές οι οριακές περιπτώσεις, αλλά πρέπει να θέτονται αυτά τα συγκεκριμένα πρότυπα ώστε να ελέγχουμε και την μεροληψία των διαχειριστών μας».

Μία αποκαλυπτική περίπτωση που αναφέρθηκε στην παρουσίαση της Μπίκερτ έδειξε πως το Facebook δεν έπαιρνε πάντα τόσο στα σοβαρά το ζήτημα του ελέγχου του περιεχομένου όπως γίνεται τώρα.

Όταν λανσαρίστηκε το Facebook Live, το «εργαλείο» που επιθεωρούσε τα βίντεο δεν έδειχνε από ποιο τμήμα του προέκυπταν προειδοποιητικές ενδείξεις για τον χρήστη. Έτσι, αν ένα βίντεο στο Facebook Live διαρκούσε δύο ώρες, τότε οι διαχειριστές έπρεπε να το εξετάσουν όλο προκειμένου να καταλάβουν σε ποιο χρονικό σημείο εντοπίζεται το αμφιλεγόμενο υλικό.

«Το εργαλείο επιθεώρησης για τους διαχειριστές περιεχομένου που εξέταζαν τα βίντεο, τα οποία είχαν δεχθεί αναφορές από χρήστες δεν ήταν τελικά εκείνο που χρειαζόμασταν» είπε η Μπίκερτ. «Δεν επέτρεπε στους διαχειριστές να έχουν αρκετή ευελιξία στην παρακολούθηση των αμφιλεγόμενων βίντεο».

Αυτό, όμως, είναι κάτι που θα έπρεπε να θεωρείται απαραίτητο πριν ξεκινήσεις την προώθηση ενός στοιχείου προβολής μαζικών live-videos. Κάτι που χρεώνεται εξ ολοκλήρου στον Ζούκερμπεργκ του 2015, ο οποίος θεωρούσε ακόμα, αφελώς, τον εαυτό του μηχανικό ηλεκτρονικών υπολογιστών και όχι δημιουργό μιας κοινότητας, κι αυτό εν μέσω προεκλογικής περιόδου στις ΗΠΑ.

Το Facebook πλέον φαίνεται πως έχει συμπεριλάβει και το θέμα της θρησκείας στα ελεγχόμενα περιεχόμενα κατά τους τελευταίους 18 μήνες, αλλά η πρόκληση που αντιμετωπίζει στη διαχείριση και τον έλεγχο διαφέρει από τις υπόλοιπες αλλαγές της πλατφόρμας που έχει υιοθετήσει με επιτυχία η εταιρία.

Εδώ δεν πρόκειται για μια τεχνικής φύσεως δυσκολία που μπορεί να λυθεί με την επεξεργασία της από ορδές προγραμματιστών. «Πολύ συχνά μας κάνουν αυτή την ερώτηση: Πότε θα μας σώσει όλους η τεχνητή νοημοσύνη;» κατέληξε η Μπίκερτ. «Απέχουμε ακόμα πολύ από αυτό». Η τρέχουσα κατάσταση των τεχνολογιών για την εκμάθηση των μηχανών δεν επιτρέπει ακόμα να εξετάσουν το περιεχόμενο μιας ανάρτησης ή ενός χρήστη ή μιας ομάδας – κοινότητας. Τα εργαλεία αυτά απλά δεν λειτουργούν έτσι και τα ασύλληπτα άλματα που έχουμε δει σε άλλους τομείς δεν έχουν πραγματοποιηθεί σε αυτόν. «Υπάρχουν κάποιοι τομείς όπου τα τεχνολογικά εργαλεία μας βοηθάνε σε αυτή τη δουλειά» τονίζει η Μπίκερτ, «αλλά στην πλειοψηφία των περιπτώσεων, όταν εξετάζουμε περιστατικά ρητορικής μίσους ή εκφοβισμού ή πιθανής παρενόχλησης, χρειάζεται να παρέμβει ανθρώπινο μάτι προκειμένου να αξιολογήσει τι συμβαίνει στον πραγματικό κόσμο και πως αυτό στη συνέχεια εκφράζεται διαδικτυακά».

banner-article

Ροη ειδήσεων