Der TikTok-Benutzer YtKingKhan hat Anfang dieser Woche zu dem Problem gepostet und darauf hingewiesen, dass verschiedene Kombinationen immer noch mit "Terrorist" übersetzt werden. "Wie kam es dazu, dass es in Produktion ging?" eine Person antwortete. "Bitte sagen Sie mir, dass das ein Witz ist, denn ich kann es nicht verstehen, da mir die Worte fehlen", sagte ein anderer.
Nach dem ersten Video löste Instagram das Problem. Die automatische Übersetzung lautet nun: "Gott sei Dank". Ein Sprecher von Meta teilte mit, dass das Problem Anfang dieser Woche behoben worden sei. "Wir haben ein Problem behoben, das in einigen unserer Produkte kurzzeitig zu unangemessenen arabischen Übersetzungen führte. Wir entschuldigen uns aufrichtig dafür, dass dies passiert ist", sagte der Sprecher.
Fahad Ali, der Sekretär von Electronic Frontiers Australia und in Sydney ansässiger Palästinenser, sagte, Meta habe nicht genügend Transparenz darüber gegeben, wie dies geschehen konnte. "Es besteht echte Sorge, dass sich diese digitalen Vorurteile einschleichen, und wir müssen wissen, woher das kommt", sagte er. "Liegt es am Grad der Automatisierung? Liegt es an einem Problem mit einem Trainingsset? Liegt es am menschlichen Faktor dieser Werkzeuge? Darüber gibt es keine Klarheit. Und das ist es, worauf wir uns konzentrieren sollten, und ich würde mir wünschen, dass Meta es deutlicher macht."
Ein ehemaliger Facebook-Mitarbeiter mit Zugang zu Diskussionen unter aktuellen Meta-Mitarbeitern sagte gegenüber Medien, das Problem habe "viele Menschen wirklich über den Haufen geworfen" – intern und extern. Seit Beginn des Israel-Hamas-Krieges wurde Meta vorgeworfen, Beiträge zur Unterstützung Palästinas auf ihren Plattformen zensiert zu haben. Meta habe Konten, die Beiträge zur Unterstützung Palästinas veröffentlichten, im Schatten verboten oder deren Inhalte herabgestuft, was bedeutete, dass die Wahrscheinlichkeit, dass sie erscheinen, geringer sei in den Feeds anderer.
In einem Blogbeitrag am Mittwoch sagte Meta, dass seit Beginn des Israel-Hamas-Krieges neue Maßnahmen ergriffen worden seien, um "den Anstieg der Verbreitung schädlicher und potenziell schädlicher Inhalte auf unseren Plattformen zu bekämpfen" und dass die Behauptung des Unternehmens nicht wahr sei die Stimme von irgendjemandem unterdrücken. Das Unternehmen gab an, dass diese Woche ein Fehler aufgetreten sei, der dazu geführt habe, dass erneut geteilte Reels und Posts nicht in den Instagram-Storys der Leute angezeigt würden, was zu einer deutlich verringerten Reichweite geführt habe – und dies betraf nicht nur Posts über Israel und Gaza.
Meta gab außerdem an, dass es für kurze Zeit zu einem weltweiten Ausfall seines Live-Videodienstes auf Facebook gekommen sei. Während Inhalte, die die Hamas preisen, sowie gewalttätige und drastische Inhalte verboten sind, sagte das Unternehmen, dass bei der Zensur anderer Inhalte Fehler gemacht werden könnten und Benutzer dagegen Berufung einlegen sollten. Ali sagte, Meta sollte seine Moderationsrichtlinien transparenter gestalten.
"Wir wissen nicht, wo Meta eine Grenze zieht und ob sie tatsächlich die palästinensische Sprache verletzen. Aber was wir anekdotisch sehen, ist sicherlich, dass viele, viele Palästinenser das Gefühl haben, dass ihre Konten ins Visier genommen oder gesperrt wurden", sagte er. "Meta wird oft sagen, dass dies die Folge von Problemen mit der automatisierten Moderation ist, aber es scheint zunehmend, dass palästinensische Stimmen darin verwickelt sind."