بر اساس اسناد داخلی بررسی شده توسط آسوشیتدپرس، فیس بوک سال ها پس از غربالگری به دلیل مشارکت در خشونت های قومی و مذهبی در میانمار، همچنان در شناسایی و تعدیل سخنان نفرت انگیز و اطلاعات نادرست در پلت فرم خود در این کشور آسیای جنوب شرقی مشکل دارد.
سه سال پیش، این شرکت گزارشی را ارائه کرد که نشان میداد فیسبوک برای «تحریک تفرقه و تحریک خشونت آفلاین» در کشور استفاده میشود. او قول داد که بهتر عمل کند و ابزارها و سیاست های متعددی را برای مقابله با سخنان نفرت انگیز تدوین کرد. اما امروزه با مرور فیس بوک، یافتن پست هایی که تهدید به قتل و تجاوز جنسی در میانمار می کنند، کار سختی نیست.
از زمانی که ارتش در اول فوریه سال جاری قدرت را در دست گرفت، این تخلفات ادامه دارد - و حتی توسط بازیگران متخاصم مورد سوء استفاده قرار گرفته است که منجر به نقض وحشتناک حقوق بشر در سراسر کشور شد.
یک ویدیوی 2 و نیم دقیقه ای که در 24 اکتبر توسط یکی از حامیان ارتش منتشر شد و خواستار خشونت علیه گروه های مخالف بود، بیش از 56000 بازدید به دست آورد.
مرد در حالی که به دوربین نگاه میکند به زبان برمهای میگوید: «پس از هماکنون، ما خدای مرگ همه (آنها) هستیم. فردا بیا و ببین مرد واقعی هستی یا همجنسگرا.
یک حساب کاربری نشانی منزل یک سرباز فراری و عکس همسرش را منتشر کرد. پست دیگری از 29 اکتبر شامل عکسی از سربازان است که مردان چشم بسته و چشم بند را در مسیری سیاه هدایت می کنند. روی کتیبه برمه ای نوشته شده است: «آنها را زنده نگیرید».
علیرغم مشکلات مداوم، فیس بوک عملیات خود در میانمار را هم به عنوان یک مدل صادراتی در سراسر جهان و هم یک مورد رو به رشد و خورنده می بیند. اسناد بررسی شده توسط AP نشان می دهد که میانمار به یک میدان آزمایشی برای فناوری جدید تعدیل محتوا تبدیل شده است و غول رسانه های اجتماعی در تلاش برای خودکارسازی سخنان نفرت انگیز و اطلاعات نادرست با درجات مختلف موفقیت هستند.
بحثهای داخلی فیسبوک درباره میانمار در افشاگریهایی که به کمیسیون بورس و اوراق بهادار انجام شد و توسط یکی از کارمندان سابق فیسبوک که مخبر فرانسیس هاوگن بود به کنگره ارائه شد. نسخه های ویرایش شده دریافت شده از کنگره توسط کنسرسیومی از سازمان های خبری از جمله آسوشیتدپرس دریافت شد.
فیس بوک در میانمار نسبت به بسیاری از کشورها تاریخچه کوتاه تر اما ناپایدارتری دارد. پس از چندین دهه سانسور تحت حکومت نظامی، میانمار در سال 2000 به اینترنت متصل شد. اندکی پس از آن، فیس بوک با ارائه دهندگان مخابراتی این کشور ادغام شد و به مشتریان این امکان را داد که از این پلت فرم بدون نیاز به پرداخت هزینه برای داده هایی استفاده کنند که در آن زمان هنوز در دسترس بود. هنوز گران است استفاده از پلت فرم منفجر می شود. برای بسیاری در میانمار، فیس بوک به خود اینترنت تبدیل شده است.
Htaike Htaike Aung، یکی از مدافعان سیاست اینترنتی میانمار، گفت که این کشور نیز در حدود سال 2013، همزمان با شورش های مذهبی میانمار بین بودایی ها و مسلمانان، به «محل افراط گرایی» تبدیل شده است. در حال حاضر مشخص نیست که چه مقدار، در صورت وجود، تعدیل محتوا صورت گرفته است.
Htaike Htaike Aung گفت که در همان سال با فیس بوک ملاقات کرد و مشکلاتی را در این کشور افشا کرد، از جمله اینکه چگونه سازمان های محلی مقادیر تصاعدی سخنان نفرت انگیز را در این پلتفرم مشاهده می کنند و چگونه مکانیسم های پیشگیری، مانند گزارش در مورد نشریات، در زمینه میانمار کار نمی کند.
یکی از نمونههایی که او به آن اشاره کرد، عکسی از انبوهی از چوبهای بامبو بود که روی آن نوشته شده بود: "بیایید آماده باشیم زیرا در جامعه مسلمانان شورش رخ خواهد داد."
Htaike Htaike Aung گفت که این عکس در فیس بوک گزارش شده است، اما شرکت آن را دانلود نکرده است زیرا هیچ یک از استانداردهای جامعه شرکت را نقض نمی کند.
"این مضحک است، زیرا در واقع خواستار خشونت بود. اما فیس بوک آن را اینطور نمی دید.
سال ها بعد، عدم اعتدال توجه جامعه جهانی را به خود جلب کرد. در مارس 2018، کارشناسان حقوق بشر سازمان ملل که در مورد حملات به اقلیت مسلمان روهینگیا در میانمار تحقیق می کنند، گفتند که فیس بوک در گسترش سخنان نفرت انگیز نقش داشته است.
مارک زاکربرگ، مدیرعامل فیسبوک، یک ماه بعد، در پاسخ به سوالی درباره میانمار در جلسه استماع سنای ایالات متحده، گفت که فیس بوک قصد دارد "ده ها" سخنران برمه ای را برای تعدیل محتوا، همکاری با گروه های جامعه مدنی برای شناسایی چهره های نفرت و توسعه فناوری های جدید برای مبارزه با نفرت استخدام کند. سخن، گفتار. .
«سخنان تنفر آمیز بسیار خاص زبان است. زاکربرگ گفت: «بدون افرادی که به زبان محلی صحبت می کنند کار سختی است و ما باید تلاش های خود را در آنجا به طور چشمگیری افزایش دهیم.
اسناد داخلی فیسبوک نشان میدهد که اگرچه این شرکت تلاشهای خود را برای مبارزه با سخنان نفرتانگیز افزایش داده است، اما ابزارها و استراتژیهای این امر هرگز به طور کامل اجرا نشده و افراد حاضر در این شرکت بارها زنگ خطر را به صدا در آوردهاند. در یک سند در ماه مه 2020، یک مقام رسمی گفت که طبقهبندی متن سخنان مشوق تنفر موجود استفاده نشده و نگهداری نشده است. سند دیگری یک ماه بعد گفت که "شکاف های قابل توجهی" در کشف اطلاعات نادرست در میانمار وجود دارد.
رونان لی، دانشمند مدعو در ابتکار عمل بین المللی جنایت دانشگاه کوئین مری در لندن، گفت: فیس بوک اقدامات نمادینی را انجام داده است تا به سیاستمداران اطمینان دهد که کاری در حال انجام است و آنها نیازی به نگاه عمیق تر ندارند.
رافائل فرانکل، مدیر سیاست گذاری فیس بوک برای کشورهای در حال توسعه در APAC در ایمیلی به AP گفت که این پلتفرم "تیم ویژه ای متشکل از بیش از 100 سخنران برمه ای ایجاد کرده است"، اما از بیان دقیق تعداد افراد شاغل خودداری کرد. شرکت بازاریابی آنلاین NapoleonCat تخمین می زند که حدود 28.7 میلیون کاربر فیس بوک در میانمار وجود دارد.
هاوگن، افشاگر، در طول شهادت خود در پارلمان اروپا در 8 نوامبر، از فیس بوک به دلیل عدم سرمایه گذاری در بررسی حقایق شخص ثالث انتقاد کرد و در عوض به سیستم های خودکار برای شناسایی محتوای مضر متکی بود.
او با اشاره به میانمار گفت: «اگر روی این سیستمهای خودکار تمرکز کنید، آنها برای متنوعترین مکانهای قومیتی در جهان، با مکانهای متنوع زبانی در جهان که اغلب شکنندهترین هستند، کار نمیکنند».
پس از شهادت زاکربرگ در کنگره در سال 2018، فیس بوک ابزارهای دیجیتالی را برای مبارزه با سخنان نفرت انگیز و اطلاعات نادرست توسعه داده است و همچنین یک چارچوب داخلی جدید برای مدیریت بحران مانند میانمار در سراسر جهان ایجاد کرده است.
فیسبوک فهرستی از سطوح «تیم حیاتی» رتبهبندی شده در معرض خطر را برای تمرکز انرژی خود جمعآوری کرده است، و همچنین زبانهایی را که نیاز به تعدیل محتوای بیشتری دارند، ارزیابی کرده است. میانمار به عنوان یک کشور در معرض خطر برای "زبان 1" شناخته شده است و برمه ای در کنار اتیوپی، بنگالی، عربی و اردو به عنوان "زبان اولویت" در نظر گرفته شده است.
مهندسان فیس بوک کلمات عامیانه برمه ای برای "مسلمانان" و "روهینگیا" را از سیستم های خودکار آن یاد گرفته اند. او همچنین سیستمهایی را برای تشخیص «رفتار غیراصیل هماهنگ»، مانند ارسال پست از چند حساب، یا هماهنگی بین حسابهای مختلف برای انتشار محتوای یکسان، آموزش داد.
این شرکت همچنین سعی کرده است "مجرم مجدد" را کاهش دهد، که تاثیر پست های کاربران را که اغلب دستورالعمل ها را نقض می کنند، کاهش می دهد. طبق گزارشی که در سال 2020 در اسناد گنجانده شده است، در آزمایشی در دو کشور از بی ثبات ترین کشورهای جهان، این کاهش در اتیوپی خوب عمل کرد اما در میانمار ضعیف عمل کرد، تفاوتی که مهندسان را سردرگم کرد.
در این گزارش آمده است: "ما مطمئن نیستیم که چرا... اما این اطلاعات نقطه شروعی برای تجزیه و تحلیل بیشتر و تحقیقات مصرف کننده است." فیس بوک از اظهار نظر درباره رفع مشکل یک سال پس از کشف یا موفقیت هر دو ابزار در میانمار خودداری کرد.
[ad_2]
مقالات مشابه
- من چرخ: MG Club WA, منشی, ریچارد Gusterson و 1972 MGB
- نکاتی که قبل از خرید لباس بچگانه باید بدانیم
- بزرگترین فضای فیلم به تماشای در سال 2020
- بهترین خرید کربن فعال
- دروغ و دروغ درباره داروهای گیاهی
- خرید لایک توییتر, ارزان و فوری و بدون ریزش Like
- چه کسی اسباب بازی را می خواهد؟
- اسباب بازی بدون رانندگی خودت دیوانه
- گلدن گلوب مراسم با تاخیر به Feb 28
- مجلسی