گزارش وب كنفرانس؛

نحوه برخورد کشورها با محتوای خشونت آمیز در فضای مجازی

نحوه برخورد کشورها با محتوای خشونت آمیز در فضای مجازی

کشورهای مختلف از چند سال قبل وضع قوانینی برای مقابله با نفرت پراکنی و محتوای خشن در فضای مجازی را آغاز نموده اند و تلاش می کنند شبکه های اجتماعی را ملزم به قبول مسئولیت در حذف و کنترل آن کنند.


به گزارش وب کنفرانس به نقل از مهر، در کشور ما در پی حادثه قتل یک زن در اهواز به دست همسرش در ایام اخیر و همزمان انتشار تصاویر و ویدیو های مربوط به آن در فضای مجازی، مجدداً موضوع قانونمند کردن محتوای آنلاین به میان آمده است. انتشار این تصاویر واکنش های مختلفی را در بر داشت و از طرفی به جریحه دار شدن احساسات عمومی منجر گردید. بااینکه در پی این رویداد برخی مسئولان اظهار نظر کرده و انتشار این تصاویر و یا فیلم ها در مجازی و رسانه ها را ممنوع دانستند اما آنچه دراین زمینه واضح است این است که محتوای فضای مجازی و نحوه انتشار آن در کشور ما قانونمند نیست و چارچوب مشخصی ندارد. از طرف دیگر آنچه خلاء آن بیش از پیش احساس می شود، نحوه مواجهه و مقابله ما با پلت فرم ها دراین زمینه است چونکه آنها خصوصاً پلت فرم های خارجی از قوانین داخلی کشور پیروی نمی نماید. این درحالی است که کشورهای مختلف در سراسر جهان از چند سال قبل با وضع قوانینی در مقابل محتوای نفرت پراکنی و خشونت آمیز فضای مجازی، تلاش می کنند کاربران شان را محافظت کنند. قوانین بازدارنده در این کشورها اجازه گسترش چنین محتوایی در فضای مجازی را نمی دهد و در صورت حذف نشدن آن جریمه ها و تنبیهاتی در انتظار شبکه های اجتماعی متخلف است. برخی کشورها شرکت های فناوری را ملزم کرده اند خودشان در این زمینه قوانینی وضع کنند و برمبنای قوانین برخی دیگر، محتوای نفرت پراکنی و خشونت آمیز ظرف مدت زمانی محدود بعد از انتشار حذف شود. در غیر این صورت پلت فرم متخلف جریمه می شود. به هر روی آنچه در زیر می خوانید مجموعه ای از قوانینی است که کشورهای مختلف طی سالیان اخیر برای مقابله با نفرت پراکنی و محتوای خشونت آمیز در فضای مجازی وضع کرده اند.
شرکت های فناوری مسئول حذف محتوای خشن در آمریکا
در آمریکا پلت فرم های فناوری مسئول قانونمند کردن خودشان هستند. شبکه های اجتماعی مختلف مانند توئیتر، فیسبوک و اینستاگرام قوانینی درباب محتوای خشونت آمیز دارند.
این پلت فرم های پرطرفدار سیاست های بازنگری محتوای مشابهی دارند بطوریکه هرگونه پست و محتوایی که خشونت را ترویج یا تشویق کند، ممنوع کرده اند. پست های حاوی نفرت پراکنی نیز در آمریکا ممنوع شده است. پلت فرم های بزرگ همین طور برای محدود کردن چنین محتوایی اقداماتی نظیر راستی آزمایی محتوا را نیز در دستور کار خود قرار داده اند.
به عنوان مثال محتوای خشونت آمیز، قلدری و تهدید در فیسبوک ممنوع می باشد. این شبکه اجتماعی گاهی اوقات در صورتیکه محتوای مذکور به نفع عموم مردم باشد، آنرا نگه می دارد و در غیر این صورت آنرا حذف می کند.
توئیتر نیز سیاست مشابهی دارد. کاربران می توانند پروفایل ها، پست ها، تصاویر، ویدیوها، گروه هایی با محتوای خشونت آمیز را گزارش دهند. همین طور یوتیوب نیز این نوع محتوا را ممنوع کرده است.
این نوع محتوا در واتساپ نیز ممنوع می باشد. انتشار محتوای غیرقانونی، نامناسب، افتراآمیز، تهدید کننده، ترسناک، آزار دهنده، نفرت پراکنی، تبعیض آمیز در این پلت فرم ممنوع می باشد.

نقطه عطف پروسه خود قانونمندسازی پلت فرم های اجتماعی در آمریکا حمله حامیان دونالد ترامپ، رئیس جمهور پیشین آمریکا به کنگره در ۶ ژانویه ۲۰۲۱ بود. در نتیجه این رویداد، حساب کاربری دونالد ترامپ در فیسبوک، توئیتر، اینستاگرام، پینترست، یوتیوب و غیره بسته شد. از طرف دیگر توئیتر یک گروه خشن حامی نظریه های توطئه(QAnon) افراطی را نیز مسدود کرد. همین طور پارلر یک اپلیکیشن شبکه اجتماعی که مدعی گسترش آزادی بیان بود نیز از خدمات میزبان وب آمازون(AWS) حذف شد. این وب سایت در نهایت یک ماه بعد از این ماجرا آفلاین شد.
در همین راستا بحث و گمانه زنی هایی درباره بازنگری محتوای آنلاین در قانون آمریکا به وجود آمد.
تلاش انگلیس برای حذف محتوای نامناسب در پلت فرم های انتشار ویدئو و افزایش قدرت پلیس
این کشور هم اکنون مشغول بررسی و اصلاح قانون ایمنی آنلاین است تا موارد و جرائم بیشتری را در بر گیرد. با اصلاح این قانون پلت فرم هایی که محتوای غیرقانونی را به نمایش بگذارند با جریمه های کلان و یا مسدود شدن روبرو می شوند.
در این قانون آزارهای آنلاین، غیرقانونی محسوب می شوند. نمونه های آن عبارتند از سوءاستفاده از کودکان، استفاده از اینترنت برای مقاصد تروریستی، جرائم مربوط به نفرت و همین طور نفرت پراکنی، آزار قلدری سایبری و سوءاستفاده آنلاین. در این میان پلت فرم های آنلاین اپ ها و نرم افزارها و غیره باید محتوای خودرا مدیریت کنند. هم اکنون هرکسی که پلت فرم های آنلاین را مدیریت می کند بر طبق قانون انگلیس موظف به حذف محتوای غیرقانونی آنلاین است.
برای این منظور، پلت فرم ها باید به شکل ایمن تری طراحی شوند. این بدان معنا است که خاصیت های بنیادین ایمنی باید در طراحی وب سایت، اپ یا نرم افزار لحاظ شوند. همین طور کاربران باید محتوای غیرقانونی را به نیروی های مجری قانون و پلیس اطلاع دهند.
انگلیس در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که مربوط به پلت فرم های اشتراک گذاری ویدئو بود. هدف از این قوانین، صیانت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدیو های خشونت آمیز است البته این کشور در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که هدف آن پلت فرم های اشتراک گذاری ویدئو بود. هدف این قانون صیانت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدیو های خشونت آمیز مقابل گروه هایی خاص است. در همین راستا آفکام (رگولاتور انگلیس در بخش رسانه ها)، دستورالعمل جدید برای پلت فرم هایی مانند تیک تاک، اسنپ چت، ویمو و توییچ اعلام نمود. این پلت فرم ها باید اقدامات مناسب جهت محافظت کاربران در مقابل محتوای مخرب را اتخاذ کنند. محتوای تروریستی، نژاد پرستی و غیره قسمتی از این محتوای خشن به حساب می آیند.
اما قبل از آن و در سال ۲۰۱۹ میلادی ساجد جاوید وزیر کشور وقت انگلیس و رئیس کارگروه خشونت جدی انگلیس بودجه ۱.۳۸ میلیون پوندی برای این کارگروه تعیین کرد تا اختتام ماه می همان سال اجرائی شود. تیم ۱۷ نفره شامل نیروی پلیس و افسرانی بود که وظیفه آنها حذف محتوای مربوط به گروههای جنایتکارانه در فضای آنلاین بود.
در این کارگروه مدیران ارشد گوگل و فیسبوک اقدامات خودرا برای مقابله با محتوای خشن همچون ویدیو های مروج خشونت معرفی کردند.
کارگروه مشترک پلیس ملی انگلیس و شبکه های اجتماعی در پلیس متروپولیتن تاسیس شد. در این کارگروه تیم هایی مختص مقابله با محتوای آنلاین روی تحقیق، اختلال و اجرای قانون در مقابل گروههای مجرمانه فعالیت می نمایند.
همچنین این کارگروه محتوای خطرناک در شبکه های اجتماعی را مشخص می کند تا آنها را بطور دائم حذف نمایند. این مرکز قسمتی از استراتژی خشونت جدی دولت انگلیس برای دورکردن جوانان از جرائم و همین طور قدرتمندتر کردن واکنش پلیس بود.
مهلت ۲۴ ساعته آلمان برای حذف محتوای نامناسب
آلمان نیز یکی از کشورهایی است که دراین زمینه قوانینی وضع کرده است. قانون اجرائی شبکه یا NetzDG که به قانون فیسبوک نیز معروف است برای مقابله با نفرت پراکنی و اخبار جعلی در شبکه های اجتماعی در این کشور وضع شده است.
این قانون شبکه های اجتماعی با بیش از ۲ میلیون کاربر را ملزم به حذف محتوای غیرقانونی واضح در ۲۴ ساعت و محتوای غیرقانونی ضمنی طی ۷ روز بعد از پست آن، می کند. شبکه اجتماعی خاطی با جریمه ای تا ۵۰ میلیون یورو روبرو می شود. محتوای حذف شده باید حداقل تا ۱۰ هفته بعد نیز حذف شود و پلت فرم ها باید هر ۶ ماه یکبار گزارش های شفافیت درباره محتوای غیرقانونی را ارایه کنند.
این قانون در سال ۲۰۱۷ میلادی تصویب گردید و از ۲۰۱۸ میلادی اجرائی شده است.
تلاش نافرجام فرانسه برای تصویب قانون مقابله با محتوای نامناسب
در این درحالی است که فرانسه نیز در سال ۲۰۱۹ میلادی قانونی مشابه NetDG وضع کرد. این قانون با پشتیبانی امانوئل مکرون و حزب او پلت فرم های آنلاین را ملزم می کرد تا محتوای خشن و نفرت پراکنی که توسط کاربران مشخص شده را تا ۲۴ ساعت حذف نمایند. اگر پلت فرم این قانون را نقض می کرد، با جریمه ای ۱.۲۵ میلیون یورویی روبرو می شد.
اما در سال ۲۰۲۰ میلادی شورای قانون اساسی فرانسه، (دادگاهی که قوانین را بررسی می کند تا طبق قانون اساسی کشور باشند) آنرا لغو نمود. بگفته این دادگاه قانون مذکور سبب می شد پلت فرم ها برای اجتناب از جریمه و تنبیه شدن، هر گونه محتوای گزارش شده را بدون در نظر گرفتن آنکه نفرت پراکنی بشمار می رود یا خیر حذف نمایند.
رویداد کریستی چرچ سرآغاز تلاش نیوزلند و استرالیا برای مقابله با محتوای خشن
نیوزلند نیز درباره حذف محتوای غیرقانونی قانون مشخصی دارد. بعد از حمله تروریستی کریستی چرچ در این کشور ساز و کاری برای مقابله صریح تر با محتوای خشونت آمیز و نفرت پراکنی در نظر گرفته شد. در این حلمه یک فرد افراط گرا با حمله به مسجدی حدود ۵۰ نفر را به قتل رساند و کل این پروسه را بطور زنده در فیسبوک پخش کرد.
مقابله با چالش افراطی گری چالشی پیچیده و طولانی مدت است بدین سبب چند سازمان دولتی، آژانس مجری قانون، جوامع مدنی، کارشناسان نیوزلندی همه در این عرصه نقش دارند.
تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور از آزارهای آنلاین و همین طور اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج می کند
تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور نسبت به آزارهای آنلاین و همین طور اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج می کند.
از مسئولیت های این تیم شناسایی محیطی است که محتوای خشونت آمیز ایجاد و در فضای آنلاین به اشتراک می گذارد. همین طور این تیم وظیفه اجتناب، دور کردن و در صورت لزوم تعقیب قانونی افرادی را برعهده دارد که محتوای مخرب را در فضای مجازی به اشتراک می گذارند.
دیگر اقدام این کشور تعهد دولت و شرکت های فناوری برای حذف محتوای تروریستی و خشونت آمیز در فضای آنلاین است.
همچنین طبق قانونی در ۲۰۲۰ میلادی به پارلمان این کشور ارائه شده، پخش زنده هرگونه محتوای غیرقانونی مانند رویداد تروریستی کریستی چرچ یک جرم قانونی می باشد. دولت می تواند دستور حذف محتوای آنلاین را به پلت فرم اعلام نماید.
استرالیا نیز یکی دیگر از کشورهایی است که قوانینی درزمینه محتوای خشونت آمیز و نفرت پراکنی در فضای آنلاین است. در این کشور پلت فرم ها ملزم به حذف محتوای منزجرکننده و خشن هستند و در غیر این صورت با جریمه های کلان روبرو می شوند. این قانون بعد از حمله تروریستی کریستی چرچ در نیوزلند که به مسلمانان حاضر در مسجدی حمله و قتل آنان بطور زنده در فیسبوک پخش گردید، وضع شده است.
تلاش گسترده هند برای مقابله با محتوای خشونت آمیز و نفرت پراکنی
هند با ۵۰۰ میلیون کاربر آنلاین و تاریخچه ای از گسترش اخبار جعلی در شبکه های اجتماعی و پیامرسان ها که گاهی به خشونت منجر شده، یکی از کشورهایی است که بازنگری محتوا در آن اهمیت زیادی دارد. قانونمندسازی محتوا تحت قانونی به نام قانون فناوری اطلاعات(ITA) قرار دارد.
استفاده از اینترنت برای انتشار محتوای تروریستی تحت جرائم سایبری قانون فناوری اطلاعات قرار می گیرد.
با این قانون که در ۲۰۰۰ میلادی وضع و در ۲۰۰۵ میلادی اصلاح شده، چهارچوبی برای مقابله با تروریسم سایبری در هند به وجود آمده است. در سال ۲۰۱۵ میلادی دادگاه عالی هند رای داد شرکت های فناوری باید بطور فعال پلت فرم ها را برای وجود محتوای غیرقانونی رصد کنند.
هرچند قانون ITA بطور واضح محتوای تروریستی را توضیح نمی دهد اما در سال ۲۰۱۵ میلادی مشخص شد استفاده از دستگاه های ارتباطی برای به اشتراک گذاری اطلاعاتی که به شدت اهانت آمیز است یا ماهیت تهدیدآمیزی دارد در کنار اخبار جعلی که نفرت و دشمنی به وجود می آورد، ممنوع می باشد. در همین راستا شرکت های فناوری ملزم هستند در صورت دریافت دستور از دادگاه یا دولت، محتوای مذکور را حذف نمایند.
همچنین سازمان های دولتی و قضایی می توانند از پلت فرم های اینترنتی بخواهند محتوای غیرقانونی را حذف نمایند.

قانون عملکرد اینترنت در سنگاپور
سنگاپور یکی از هاب های اصلی فناوری در آسیا است و در حقیقت جایگزین آسیایی سیلیکون ولی بشمار می رود. خیلی از شرکت های فناوری بزرگ. همچون فیسبوک، مایکروسافت، گوگل و یوتیوب مقری در سنگاپور دارند.
این کشور در اکتبر ۲۰۱۶ میلادی «قانون عملکرد اینترنت»(Internet Code of Practice) را تصویب کرد که مبنایی برای وظایف خدمات اینترنتی و تهیه کنندگان محتوا در سنگاپور فراهم می آورد. علاوه بر آن «چارچوب نظارتی اینترنت»(Internet Regulatory Framework) در این کشور وضع شده، که نمای کلی از رویکرد سنگاپور به مقررات آنلاین را نشان میدهد و با «قانون عملکرد اینترنت» نیز مرتبط می باشد. قانون «حفاظت در مقابل محتوای اشتباه و دستکاری آنلاین» (POFMA) نیز در اکتبر ۲۰۱۹ در سنگاپور تصویب شده که مربوط به کنترل گسترش اخبار جعلی به وسیله دستورات اصلاح و حذف محتوا است. در همین راستا سازمان IMDA بر اجرای این قوانین در کشور نظارت دارد.
چارچوب قانونگذاری این کشور بطور خاص محتوای تروریستی آنلاین را هدف می گیرد. البته در این خصوص، ممنوعیت محتوای آنلاینی که نفرت را ترویج می کند نیز مبنایی برای حذف محتوا بشمار می رود.
تمام محتوای اینترنت و تهیه کنندگان سرویس در سنگاپور باید از قانون عملکرد اینترنت پیروی کنند. در صورت نقض قانون IMDA قدرت وضع تحریم همچون تصویب جریمه بر شرکت های فناوری را دارد.

1400/11/20
22:44:50
5.0 / 5
650
تگهای خبر: آنلاین , اپل , اینترنت , پشتیبان
این مطلب را می پسندید؟
(1)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۶ بعلاوه ۵
WebMeet

webmeet.ir - حقوق مادی و معنوی سایت وب كنفرانس محفوظ است

وب كنفرانس

کنفرانس تحت وب و چت تصویری
با وب کنفرانس فاصله‌ها را کم کنید، ارتباطات را تقویت کنید