سعت الدراسة الحالية إلى بناء أُطر نظرية وتحليلية تُغطي ظاهرة خطاب الكراهية داخل الفضاء السيبراني وتُحاول فهمه في شُموليته وبكافة مُستوياته البنيوية والسوسيو-تقنية والتكنولوجية، مُركزّة على سياقات ظُهور مضامين الكراهية ودوافع إنتاجها وأنماط تداولها والتفاعل معها في البيئة الرقمية الجديدة. وتوزّعت هيكلية الدراسة على ثلاثة أقسام. حيث عَرَضنا في القسم الأول مدخلًا مفاهيميًا وإجرائيًا لمصطلح خطاب الكراهية وبَحَثنَا في امتداده النظري والمعياري ضمن الأدبيات البحثية الاجتماعية بناء على الاستقراء النظري والمعرفي. وعَالَج القسم الثاني ديناميات خطاب الكراهية السيبراني وأنماطه وكذا السياقات الاجتماعية والتكنولوجية التي يُنتج فيها. وتناول القسم الثالث سُبل التعاطي والاستيعاب الحالية لخطاب الكراهية السيبراني وكذا الرهانات والمخاطر الفعلية التي يطرحها هذا الخطاب على النسيج المجتمعي في كلا مظاهر حضوره الرقمي والمادي وعلى مُقومات العيش المشترك في أبعاده الإنسانية والحقوقية.
خطاب الكراهية، الفضاء السيبراني – مدخل نظري ومفاهيمي
- مقدمة
- 1. خطاب الكراهية، التعريف والأجرأة المفاهيمية
- 2. خطاب الكراهية السيبراني، الأطر والديناميات السوسيو-تقنية
- 3. خطاب الكراهية السيبراني، الرهانات والمخاطر
- خاتمة
مقدمة
أتاح الجيل الثاني من الويب (web 2.0) براديغما تقنيًا جديدًا نَلمس في جدّته نموذجًا تواصليًا مبنيًا على التقاطع والتماهي بين الإتصال الجماهيري والاتصال الشخصي، حيث يُتيح للمستخدمين إنتاج المحتوى وتلقيه والتفاعل معه بصفة فردية أو جماعية كما يسمح لهم بالانخراط في صيرروات تواصلية ذات طابع بين -شخصي وجماهيري في آن واحد أو بكيفية منفصّلة، إضافة إلى إمكانات النفاذ غير المحدود للمحتوى المُنتَج ضمن فضاء غير مادي وغير مَعني بالأطُر الزمانية والفيزيقية التي تَحكُم التفاعل داخل الفضاء الاجتماعي الفيزيائي (KhosraviNik, 2017: 58). ووَلَد هذا التواصل عبر منصات الويب ووسائط التواصل الاجتماعي حَقلًا من الظواهر الاجتماعية التي تمخضّت عن التفاعل ضمن وسط إنثربولوجي وسوسيوتقني أنتجه المُستخدمون من خلال تفاعلاتهم الاجتماعية اليومية مَكنهم في المُحصلّة من صيانة العلاقات وبناء الهويات وإسباغ شرعيّات رمزية على سلوكيات الأفراد ومطالبهم. ولكن أيضًا من خلال تطويع الخصائص التقنية المتاحة تَمَكَن المُستَخدمون من ذوي الإيديولوجيات والخلفيات السياسوية المُختلّفة من إنتاج خطابات الكراهية وإعادة بعث الصراعات الاثنو-ثقافية والترسبات والهواجس الرمزية والتحيزّات القديمة وإعادة إنتاجها بشكل فج ضمن منحى صراعي. (Davidson & Martellozzo, 2013 :1456).
ويطرح خطاب الكراهية الرقمي رهانات بالغ الجدّية والجسامة على المستويين الاجتماعي والسيكولوجي، إذ من المُهم إدراك أن التَعرّض لمضامين الكراهية داخل الركح الافتراضي أصبح ظاهرة واسعة الانتشار وجزءً روتينيا من تجربة الاستخدام والنفاذ، ففي دراسة شَملت دول الاتحاد الأوروبي، تَعرض ما يفوق 80% من مستخدمين منصات التواصل الاجتماعي لخطابات كراهية، كما شَكل أكثر من 40٪ من المستخدمين ضحايا تم إستهدافهم قصديا بهذا الخطاب (Gagliardone, Gal, Alves, & Martinez, 2015: 34). وفي النصف الثاني من 2020 فقط قامت شبكة الفايسبوك Facebook لوحدها بحذف 22.5 مليون منشور يحضّ على الكراهية، بينما حذفت منصة الانستغرام Instagram في نفس المدة 3.3 مليون مشاركة تدخل ضمن حيزّ خطاب الكراهية. (Hyman, 2020: 1553) الأمر الذي يُدلّل على تَعَاظم حُضور ظاهرة الكراهية وطُغيانها على مستوى التفاعلات الافتراضية، ووجوب التعاطي معها وحَمْلهَا على درجة الجدّية نفسها التي تُحمَل عليها الكراهية الممارسة في الأوساط الاجتماعية الواقعية.
وعلى الرغم من أن الفضاء السيبراني لم يَخترع خطاب الكراهية، إلا أنه زَادَ من إنتشاره وكثافته، بل حتى أنه أصَبغ عليه مَعاني إجتماعية ورَمزية جديدة (Llinares, 2016 :83). ففي حين أن استخدام الاختلاف والتباين الاثني لزرع العداء والاحتراب الرمزّي ووصم الأقلّيات العرقية والثقافية والدينية يُمثّل ظاهرة سوسيولوجية سبقت ظهور الإنترنت بفترات زمنية طويلة (Bronner, 2011: 148). إلا أن تجلّيات هذه الاحتراب اليوم تتضمن عناصر جديدة مٌستّمدة من البيئة الرقمية وخصوصياتها التقنية والاستخدامية (Lim, 2020: 603).
فمن خلال توظيف الخصائص متعددة الوسائط والميكانيزمات التفاعلية والتواصلية التي تُتيحها المنصات الرقمية الجديدة يَتَمكن مُنتجي المحتوى المدفعون بالإيديولوجيا أو القَناعات المُتطرفة من بناء خطابات كراهية ونشرها على مساحات تَلقي واسعة لجمهور غير محدود، ضمن إستراتيجية خَلق الاستقطاب وتَعميق الفُروقات الهوياتية والثقافية والاثنية وإعادة إنتاجها وتدويرها وترسيخها عن طريق المنشورات والمشاركات والصور ومقاطع الفيديو والميمات (memes) والتعليقات، وبذلك تُصبح منصّات التواصل المفتوحة مكونًا رئيسيًا لنشر وإستفحال خطابات الكراهية وبلاغاتها (rhetorics) الإثنو-ثقافية والرمزية، حيث تُضيف هذه المنّصات نسقا تفاعليا إضافيا إلى صيرورّة إنتاج خطابات الكراهية، وتُموضّع الإمكانات التشاركية لمنصّات التفاعل الاجتماعي ضمن موضع الوساطة التقنية لإسناد الأشكال الجديدة من خطاب الكراهية.
وفي هذا السياق، تأتي دراستنا كمُحاولة لفهم إشكالية خطاب الكراهية داخل الفضاءات السيبرانية والرّهانات التي تطرّحها وكذا السياقات الاجتماعية والتقنية التي تُساهم في إنتاجها وحركيتها، بإعتبارها إشكاليّة ذات طابع إستعجالي يفرض أسئلة ملّحة على مختلف حقول العلوم الاجتماعية والانسانية بحكم تعقّد الظاهرة وملامستها لواقع السلوك اليومي للأفراد وتأثيراتها على تركيبة النظم الاجتماعية والتفاعل الجمعي ومنظومة التعايش والمواطنة والتشارك.
1. خطاب الكراهية، التعريف والأجرأة المفاهيمية
تَكشف لنا مُحاولة الإحاطة بمفهوم خطاب الكراهية داخل أدبيات البحث الاجتماعي عن تزايد الاهتمام بهذا المفهوم خصوصًا بعد انتقاله من المجال الاشتغالي للعلوم القانونية والميدان التشريعي إلى حقل العلوم الاجتماعية، حيث انعكس الاهتمام الأكاديمي بموضوع خطاب الكراهية في النموّ المُطرّد للأبحاث العلمية المُفهرسة داخل قواعد البيانات الاكاديمية الدولية، ففي قاعدة Web of Science مثلًا تَزايد عدد البحوث في هذا الميدان من 42 بحثًا سنة 2013 إلى 162 بحثًا سنة 2018 (Paz, Montero-Díaz & Moreno-Delgado,2020: 15). ويُرّد هذا الارتفاع المَلحوظ إلى كثافة مضامين الكراهية وطُغيانها على مختلف التفاعلات الافتراضية، إضافة إلى ولوج هذا الموضوع لحيزّ الاهتمام العمومي وإلى جهود تنظيمات المجتمع المدني ومُختلف الجمعيات غير الحكومية في سعيها نحو مُجابهة الكراهية على مُختلف المُستويات. ويَكشف لنا التراكم النظّري الذي تَم تشيّيده حول مفهوم خطاب الكراهية على تَنوع الخَلفيات الابستيمولوجية الكامنة خَلفه، وكذلك المَقاصد التي لازَمت تَناوله والاشكاليات المركزية التي لامسته.
ويَتطلب منا تَحديد تعريف ملائم لخطاب الكراهية وضَبط حُقوله الدَلالية، التَدرج في الانتقال بهذا المفهوم من مُستوى التداول العام المُجرّد إلى المستوى الإجرائي. ومن المُفيد في هذا السياق الإقرار بأنه لا يوجد تعريف أكاديمي مرجعي أو مُوحد لخطاب الكراهية، لذلك سَنَكتفي في إطار هذا البحث بالتركيز على استحضار المقاربات المفاهيمية والتَمثّلات الإجرائية المَرجعية لإضاءة بعض الجوانب التي تتعلق بهذا المفهوم المُستجّد في حقول البحث الاجتماعي والاتصالي.
ويُقابل مصطلح “خطاب الكراهية” بالعربية مصطلح (discours de haine) بالفرنسية، ومصطلح (hate speech) بالانجليزية. ويُعرّف قاموس كامبريديج البريطاني Cambridge Dictionary خطاب الكراهية على أنه خطاب علني يُعبرّ عن الكراهية أو ُيشجع على العنف تجاه فرد معين أو مجموعة محددة من الأفراد على أساس العرق أو الدين أو الجنس (Dictionary cambridge, 2022). حيث أن خطاب الكراهية هو خطاب لفظي أو مكتوب يَرتكزّ على إطار تنميطي يُشرّعن الوصم والإزدراء لفرد أو فئة إجتماعية معينة بناءا على مُحدداتهم الجوهرية كالعرق أو اللون أو الأصل القومي أو الجنس أو الإعاقة أو الدين أو الأيديولوجيا السياسية (Brown-Sica & Beall, 2008). كما تَم تعريف خطاب الكراهية على أنه خطاب يتضمن الدعوة للعنف والعداء والتخويف بشكل صريح أو ضمني، إذ يَستهدف الافراد بسبب هويتهم المميزة عن باقي المجموعة الاجتماعية السائدة أو اختلافاتهم البارزة التي يتم ترجمتها في إطار رمزي ووصميّ. (Gillespie, 2014) وعُرّف خطاب الكراهية أيضا على أنه أي شكل من أشكال التعبير الذي ينوّي المُتحدّثون من خلاله تشويه سمعة أو إذلال أو التحريضّ على الكراهية ضد مجموعة أو فئة من الأشخاص على أساس العرق أو الدين أو لون البشرة أو العرق أو الإعاقة أو الأصل القومي. (American Library Association, 2017).
وتتخذ الكراهية أشكالًا خطابية عديدة، مثل التنميط (stereotyping) والتعميم (generalizing) وإلقاء اللّوم على فئة اجتماعية مُعينة وتَحميلها مسؤولية وقائع فعلية أو مفترضة، أو الدعوة إلى التمييّز ضدّها وحتى تبرير إستخدام العُنف اتجاهها. وحَدّد المركز الأمريكي للعدالة المدنية (American center for civil justice) 17 نوعًا من خطاب الكراهية، على رأسها الخطاب المعادي للمهاجرين، الخطاب المعادي للمسلمين، الخطاب المعادي للسُود، الخطاب المسيحي المُتطرّف، خطاب النازيين الجدّد، خطاب استعلاء البيض وخطاب التفوق الذكوري (Jendryke & McClure, 2019 : 102).
وعادة ما ترتكز الكراهية في بناء خطابها على العرق أو الأصل أو وضعية الهجرة أو الجنس أو المعتقدات الدينية والمعتقدات أو الآراء السياسية أو حالة الإعاقة أو المظهر. ويتأثر خطاب الكراهية بالديناميات السوسيواقتصادية والتَدرج الهرمي والتَراتبي السائد في المجتمع، إذ غالبًا ما يتم توجيه الكراهية إلى الفئات المهمّشة والتي ما تَمثّل عادة أدنى درجات الهرم الاجتماعي، وبالتالي كلا النمطين من خطاب الكراهية سواءا الرقمي أو الفيزيقي يتم استخدامها كميكانيزم للإبقاء على التسلسل الهرمي للوضع المعين وإعادة إنتاجه من خلال الترهيب والقمع الرمزي أو المادي. ومع ذلك، يمكن أيضًا توجيه الكراهية نحو المجموعات المهيمنة التي تتمتع بالنفوذ السياسي أو الاقتصادي، ومثال ذلك الجماعات المدنية المناهضة للحكومة التي تَدعو تجسد كراهية السياسيين الأقوياء في الحكومة هذا النوع من الكراهية (Phadke, Shruti, et al, 2018: 201).
وقد يَشمل خطاب الكراهية، على سبيل المثال لا الحَصر، المضامين التعبيرية الثالبة والمُسيئة التي تدعو تصريحا أو تضمينا إلى التهديد الرمزي أو تُحرّض على الاعتداء المادي ضدّ فئة معينة، كما يَمتّد المفهوم أيضًا إلى التعبيرات التي تُعزّز أو تَخلق مُناخًا من التحيزّ والتَعصّب والذي يُغذي بالضرورة التمييّز المُستهدف والعداء اتجاه أفراد معينين. حيث يَحمل خطاب الكراهية في ثناياه ديناميات تبريرية (justification dynamics) تُسوّغ للعنف بشقيه المادي والرمزي ضد الفئات الاجتماعية التي يتم تصنيفها في خانة الأعداء المفترضين، ويَتَرّتب على ذلك أن مَضمُون الكراهية ما هو إلا وسيلة تواصلية لبلوغ غايات عادلة، وبالتالي يُشكلّ خطاب الكراهية مَجالًا لإنتاج مشروعية رمزية وأخلاقية ونظامًا من الغايات العادلة المُتصوّرة التي تُنتج تصنيفات وتراتبيات يَستضمرّها مُنتجي هذا النمط من الخطابات الإقصائية.
ومن خلال استقرائه لطيبولوجيا التعَاريف التي قُدّمت لمفهوم خطاب الكراهية، قَدَم الباحث الأمريكي Robert Post أربعة أبعاد مفهومية في تعريفه لخطاب الكراهية وهي الضرّر، المُحتوَى، الخصائص الجوهرية، والكرامة (Post, 1990: 613). وتُركزّ التعريفات التي تَعتمد على عُنصر الضرّر (Harm-based definitions) على الضَرر المَعنوي والمَادي الذي يَترَتب على خطابات الكراهية، حيث تُجادّل الباحثة Gelber بأن خطابات الكراهية تُضّر بقدرة الفرد على المُشاركة الاجتماعية والديمقراطية وتحدّ من مقدرتّه على التفاعل مع الشؤون العامة والتأثير على مساراتها (Gelber, 2017). من جهة أخرى تُعرّف الباحثة Susan Brison خطاب الكراهية في ضوء التشوّيه الذي يلّحق بالفرد أو المجموعة المُستهدّفة بخطاب الكراهية وتأثيرات هذا النوع من الخطابات في خلق بيئة عدائية وإقصائية للمُستَهدَفين بخطاب الكراهية (Brison, 2013).
وتُقدّم التعريفات المُستندة في بناءها النظري على عُنصر المحتوى (content-based) خطاب الكراهية على أنه الخطاب الذي يُعبر مَضمُونه عن الكراهية أو يُشجعها أو يُثيرها أو يُحرضّ عليها ضدّ مجموعة من الأفراد التي يتم وَصمُهّا على أساس سمّة مُعينّة أو مجموعة من السمّات مثل العرق أو الإثنية أو الجنس أو الدين (Paz, Montero-Díaz & Moreno-Delgado,2020: 21). ويُسهّل هذا التصوّر من عملية فرّز خطاب الكراهية وتمييّزه من بين الخطابات الأخرى الموازية.
أما بالنسبة للعنصر الثالث، فترتكزّ تعريفات خطاب الكراهية الذي تَستند إلى الخصائص الجوهرية (intrinsic properties based- definitions) على فَحوى الخطاب وجَوهرّه ومدلولاته، حيث يَتم تعريف خطاب الكراهية بموجب ذلك على أنه تَوظيف الأدوات اللغوية المَعرُوفة ضمن مَساق تَواصلي مُهين أو تَمييّزي أو امتهاني ضدّ طرف مُعين (Schwartzman, 2002: 427). أي بمعنى تَضمين صيغّ التَخَاطُب بشُحنة من التَعبيرات الإقصائية والتَعَصبّية والمُهينة بشكل صريح. ويُفيد هذا التَصوّر في فَرّز الخطابات المتداخلة وتَمييّز خطاب الكراهية من غيره عن طريق تَحديد المُصطلحات والتَعابير والأشكال الخطابية التي تَتعلق بفعل الكراهية والتَحرّيض عليها.
وتُركزّ التعريفات القائمة على الكرامة (dignity-based definitions) في المقام الأول على احتماليات الإضرار بكرامة الأطراف المستهدفة بخطاب الكراهية. وعلى سبيل المثال، يَتجّه كل من Steven Heyman وJeremy Waldron في تنظيراتهم لحرية التعبير وتشابكها مع خطابات الكراهية على الاعتماد على عُنصر الكرامة في التصنيف بين خطاب الكراهية وبين الممارسة المشروعة لحرية التعبير. وطبقا لهذا التصور، فإن خطاب الكراهية يُعرَّف على أنه الخطاب الذي “يُقوّض” المكانة الاجتماعية الأساسية (basic social standing) للمُستهدفين، ويَنزَع عنهم الاعتراف الاجتماعي والرَمزّي بهم كأفراد مُتمَاثلين ومُتَسَاويين اجتماعيًا وكَمُستَحقين للندّية الاجتماعية ولحقوق الإنسان والاستحقاقات الدستورية والمجتمعية (Waldron, 2012: 14). ويَشمَل هذا المفهوم لخطاب الكراهية أيضًا توصيفات من حيث التشهير الجماعي (group defamation) والاستهداف الجماعي لفئة اجتماعية بعينها. وتُعد المادة 130 من قانون العقوبات الألماني مثال على التشريع الذي يتضمن مفهومًا قائمًا على الكرامة لخطاب الكراهية، حيث تحظّر ذات المادة “الاعتداء على الكرامة الإنسانية عن طريق استهداف فئة معينة من المجتمع أو إهانتها أو التشهير بها” (Waldron, 2012: 18).
ونُعرّف خطاب الكراهية إجرائيًا على أنه خطاب مدفوع بالتحيز يستهدف شخصًا أو مجموعة من الأشخاص بسبب بعض خصائصهم الفطرية الفعلية أو المُتصوّرة. ويُعبر هذا النوع من الخطاب عن تمييز، المواقف المخيفة و/ أو الرافضة والعدائية و/ أو المتحيزّة تجاه تلك الخصائص، والتي تشمل الجنس أو العرق أو الدين أو العرق أو اللون أو الأصل القومي أو الإعاقة. ويستهدف هذا الخطاب الذي يحض على الكراهية إلى الإيذاء أو نزع الصفة الإنسانية أو المضايقة أو التَرهيب الحَطّ من قَدر الفئات المُستَهدَفة وتَحطيمها وإيذاءها، وإثارة اللامبالاة والوَحشية ضدّهم.
ومن بين أمثلة أشكال الخطاب التي يمكن تصنيفها كخطاب الكراهية ما كتبه رئيس لجنة إدارة البرلمان الفنلندي Jussi Kristian Halla-aho في مدونته الشخصية، من أنه نظرًا للتصرف الحتمي للمهاجرين الذكور وميلهم للاغتصاب، فإنه يأمل في أن يقوموا باغتصاب خصومه من السياسيات الفنلنديات (Lall, 2018). وكذلك تصريحات أكثر السياسيين المثيرين للجدل في أوروبا والمتهمين بـخطاب الكراهية Geert Wilders، والذي قام بمقارنة القرآن بكتاب كفاحي لهتلر وشبه الحجاب الإسلامي على أنه «خرقة رأس» وخاطب النساء المسلمات بصورة مهينة في تعليقاته المتكرّرة (Howard, 2017 : 314). كذلك الفيلسوف الفرنسي برنارد هنري ليفي Bernard-Henri Lévy الذي وَصَف الحجاب التي تلبسه المرأة المسلمة التي تعيش في المجتنعات الغربية بأنه «دعوة للاغتصاب» وكذلك زميله في الفلسفة الجديدة، Andre Glucksmann والذي وَصَفه بأنه «عملية إرهابية» (Frey & Noys, 2007: 247). كذلك القس الدنماركي والنائب البرلماني المنتخب عن حزب الشعب الدنماركي Søren Krarup والذي شبه الرموز الإسلامية بالصليب المعقوف النازي. (Nielsen, 2012 : 178)
ومن بين المَداخل الضرورية أيضا لظبطّ مفهوم خطاب الكراهية ظَبطًا مُحكمًا، إستعراض المفاهيم المُتَشابهة مع مفهوم خطاب الكراهية وتبيان مواطن التشابه، وهذا ما إرتأينا أن نقوم به، إذ قمنا بجمع أهم المفاهيم التي تَتشابه وتَتشابك مع خطاب الكراهية وحاولنا مُقارنَتها مُبرزين أهم نقاط الاختلاف والتَمايز في الجدول الآتي:
الشكل 1
أوجه الاختلاف | تعريف المفهوم | المفهوم |
خطاب الكراهية يستند إلى التحيزّات المسبقة والتعميمات والتنميطات | التعبير عن الشعور بالكراهية دون تقديم تبرير له | الكراهية (hate) |
خطاب الكراهية يكون أعم في إستهدافه ولا يقتصر على فرد واحد لذاته بل للخصائص التي يشترك فيها مع مجموعة إجتماعية محدّدة | خطاب عدواني مُتعمد تقوم به جماعة أو فرد، بشكل مُتكرّر وضمن خط زمني محدّد، ضد ضحيّة لا تَستطيع الدفاع عن نفسها غالبا ما يكون فردا واحدا | التنمر (bullying) |
خطاب الكراهية يُمكن أن يظهر في أي سياق اجتماعي أو اتصالي، بينما المضايقة لا تحدث الا في سياق المحادثات والتواصل النصي الافتراضي | خطاب مصحوب بالتعابير الصدامية وباللغة المٌهينة والهجومية خصوصًا في سياق النقاشات والتفاعلات الافتراضية (Jane, 2015) | المضايقة (flaming) |
قد يتضمن خطاب الكراهية عناصر خطابية نابية لكن ليس بالضرورة | استخدام مسيء اجتماعيًا للغة يتضمن الشتائم، والألفاظ النابية ويعتبر خطابا فظا، مسيء ثقافي؛ كما يفتقر للياقة الاجتماعية، وعادة ما يستهدف الحطّ من قدر شخص ما (White, 2007) | الخطاب النابي (profanity) |
يَشمل خطاب الكراهية ثيمات خطابية أوسع من الثيمة الامتهانية كالحَطّ والإنتقاص والتحرّيض والسبّ والتنميط والعنف الرمزي ومَقُولات الصَفَاء العرقي | خطاب ازدرائي يُعبر عن دلالة سلبية أو رأي مٌحط من قدر شخص ما أو فئة اجتماعية وثقافية مُحددة، ويُستَخدم أيضا للتعبير عن القَدحيّة أو العدوانية أو النبذ الاجتماعي. | الخطاب الامتهاني (slurs) |
خطاب الكراهية يَحمل وَجهًا تفسيريًا واحدًا وصيغَة تَخاَطب مُباشرة، مُوحيّة ومُصَوّبة تَستهدف طرف محدد | مضمون اتصالي يحمل وجهين تفسيرين، مع كون أحد الوجوه عبارة عن رسالة خاصة ومشفرّة تستبطن نسقا مهينا أو عنصريا ومتحيزا تستهدف مجموعة فرعية من الجمهور العام، ويتم إخفاؤها بطريقة تجعل هذا الجمهور العام غير مدرك لوجود التفسير الثاني (Saul, 2018). وغالبا ما يحمل هذا النوع من الخطاب في ثناياه ترسبات عرقية مهينة لإثنية معينة (Khoo, 2017) | الخطاب المهين ضمنيا (dog whistle) |
ويُمثل خطاب الكراهية نقطة تَقاطع سجالي بين حُرية التعبير ومُقتضياتها، والحقوق الأساسية للأفراد والجماعات والأقليّات، إضافة إلى مُتَطَلبات صيانة الكرامة الإنسانية. وتَبلور هذا السّجال داخل مُختَلف الأدبيات الأكاديمية في اتجاهين مختلفين، الأول يرى بأولوية حريات التعبير والتَوصيف والتداول وأسبقيتها على المسائل التي تطرحها الكراهية وإشكالات التعدد وقبول الآخر. واتساقا مع هذا الطرح، ترى الباحثة الأمريكية Alexa Koenig بضرورة وضع الثقة الكاملة في قوة الخطابات والنقاشات العامة ودورها في توضيح الحقائق الاجتماعية للجمهور وتَنويره واطلاعه وخَلق سُوق مَفتوح لتبادل الأفكار بما في ذلك الأفكار الإشكالية التي قد تُؤذي حساسيات بعض الأفراد أو الفئات، والتي يجب فتح نقاشات عمومية حولها وإبرازها بدل رَفضها وإقصائها. (Mehandru & Koenig, 2018).
كما يَتجلّى هذا الطرح في تعليق القاضي الأمريكي Louis Brandeis حول الخطابات المُشبعّة بالعنصرية والكراهية وكيفية التعامل معها ضمن سياق المجتمع الأمريكي وقيمه الليبرالية، حيث يرى بأن المجتمع بحاجة إلى مزيد من الحرية في الكلام وليس الصمت المفروض. ( Ferraresi, 2022) (more speech, not enforced silence).
وضمن هذا الاتجاه، يرى الباحث Myers أنه بمجرد أن نُقصي طرفًا أو وجهة نظر مختلفة أو نَمنعها من الظّهور حتى ولو كانت مُسيئة لطرف مُعيّن، من خلال الاستعانة بالنّصوص القانونيّة نفسها الّتي تكرّس حريّة التّعبير باعتبارها حقًّا أساسيًّا من حقوق الانسان، فإنّنا نكون بالضرّورة بصَدَد خلق بيئة قمعية وتحريضيّة قد تنتهي باستيلاد الإقصاء والكراهية كنتيجة حَتمية (Doane, 2006: 259). كما تجدر الإشارة إلى أنه عندما يتعلق الأمر بمسائل خطاب الكراهية، وتحديد المحتوى والنية وطبيعة هذا الخطاب، فإن مثل هذه الديناميات تَصطَدم بالطبيعة غير المُستقرّة والمُتَغيرّة للغة، حيث وبخلاف الأنواع الأخرى من الخطابات، يَسعى خطاب الكراهية للبحث عن مساحات وفُرص للتأكيد والشرعية – فهو خطاب متغير واستراتيجي، وقادر على استيعاب وإعادة ترميز المرجعيات والأفكار السياسية والمُعطيات القيمية، لذلك فإنه من غير المُجدي مَنع هذا النمط من الخطابات بالوسائل القانونية والتشريعية، الأمر الذي قد يُعرّقل مسار حريات التعبير الأساسية ويَخلق ثقافة المنع والحجب بدلا من الانفتاح والمواجهة. (Howard, 2019 : 98).
وعلى النقيض من ذلك، يَتجّه التَصوّر الثاني وهو الغالب في الأكاديميا إلى اعتبار خطاب الكراهية كمُهَدّد لمُقوَمات العيش المُشتَرك وكخطر على ثقافة التنوع وخطاب التسامح، خُصوصًا في ظل احتمالية خَلط حرية التعبير مع خطاب الكراهية وتَحوّل هذا الخطاب من العُنف اللَفظي والرمزي إلى العنف المادي. إذ وكما يرى الباحث John Durham Peters في هذا الصدد:
«فإن حرية التعبير تُعد حُجة مَطاطية عادة ما يتم استحضارها وتوظيفها في التبرير لخطاب الكراهية والدفاع عن مشروعيته باعتباره أحد تجليات الحق في الكلام والتعبير والتوصيف، ويترتب على ذلك محاولة إعادة بناء مفهوم حرية التعبير والقفز عليه وتطويعه لاستيعاب المضامين الحاملة للكراهية مما يَجعل »حدود «حُرية التعبير مَوضع نزاع دائم ومساحة صراع تشهد محاولات مستمرة لتطويعها خصوصًا من قبل إيديولوجيا اليمين المتطرف». (Peters, 2010: 13).
إذ أن هناك شبه إجماع داخل الأدبيات البحثية التي تشتغل حول موضوع خطاب الكراهية حول خُطُورته على منظومة التماسك الاجتماعي ومزالق الانتقال به من التعصّب لمكون إثني أو ثقافي أو لغوي مُعيّن إلى كيانات ومشاريع سياسوية وثقافوية بناءًا على النزعات الشوفينية الاختزالية للهوية والتَحجّج بالمَظلُوميات (Weinstein, 2017). إذ من طبيعة خطاب الكراهية الإستجداء بالأحقيّة في التعبير وشَرعَنة مقُولاته بشكل يَحُط من الطرف المُستهدف بالخطاب ويُروّج لدونيته المُفترَضة وعدم استحقاقه لأي حقوق أو مكتسبات مشروعة، مما سَينتهي حتمًا إلى إرساء ثوابت ثقافة الإقصاء وتَوغلّ الكراهية داخل المجتمع الواحد ضمن مناخ باعث على تأجيج العنف الرمزي واللفظي والمادي (Waldron, 2008: 277).
كما يَتَجلى التَقَاطع أيضًا بين خطاب الكراهية والحرية في التعبير أيضا في التَباين بين النموذجين الأمريكي والأوروبي، حيث يُدافع النموذج الأمريكي عن حُرية التعبير في أشكالها المختلفة ويمنع الرقابة عليها إلا في الحالات التي يمكن أن يسهم فيه استخدام هذه الحرية بشكل مباشر في ارتكاب جريمة أو التحريض عليها، الأمر الذي يَجد سنّده القانوني والمعياري في التعديل الأول لدستور الولايات المتحدة (the First Amendement) بعكس النموذج الأوروبي الذي يُنَاقض النموذج الأمريكي على أساس أن الخطابات بدافع حرية التعبير والتي تَمّس حُقوق الأقليات في المُساواة والكرامة الإنسانية تُشكل جرائم يُعاقب عليها القانون، حتى لو لم يكن هناك تحريض مُباشر على ارتكاب العُنف وهذا ما تُمثلّه روح نص المادة 10 من الاتفاقية الأوروبية لحقوق الإنسان والتي تستخدمها دول الاتحاد الأوروبي كأرضية تشريعية ومعيارية للفصل في مسألة خطاب الكراهية (Carmi,2008 : 292).
حيث يَعكس هذا التَصوّر الالتزام بالكرامة الإنسانية واحترام حُقوق الأقليات والسعي نحو استيعابهم وتضمينهم اجتماعيا ضمن نسيج المجتمعات الأوروبية وهو ما يدخل في إطار ما يُعرَف بمعادلة سياسية التنوع (diversity politics) (Carmi,2008: 294).
وعلى العكس من ذلك، تَمتَلك الولايات المتحدة ثَقافة دُستورية ومنظومة تشريعية ذات خُصوصيات تاريخية وفلسفية لا يمكن في إطارها حظر الحق في الكلام والتعبير باعتبارها حقوق فردية لا تُمسّ، حتى ولو كان الامر يتعلق بخطاب كراهية، إلا إذا كان القصد منه التحريض المباشر والتسبب في العُنف الوشيك والمُحتمل، وبالتالي يتعلق الاختلاف الفلسفي والمعياري الأساسي هنا بحق الفرد في التعبير عن أفكاره وهو ما يُقدرّه الأمريكيون تقديرًا عاليًا كحق ليبرالي ضمن التصور الفلسفي الكلاسيكي، لدرجة التسامح مع الخطاب الذي يَتنقص من كرامة الاخرين ويَضعهم في مكانة أقل تَسَاويًا. وعلى هذا الأساس، فإن التَصوّر الأمريكي يَتجه إلى السَلاسَة في القُبول الاجتماعي لمُختلف أشكال التعبير والخطاب، عكس التَصَوّر الأوروبي الذي يُصَنف خطاب الكراهية كعامل مُهدد لمبدأ العيش المشترك وكَحطّ من المُسَاوَاة في حُقوق المواطنة والتَشَارك المُجتَمعي، حيث يُعطي الأوروبيون الأولوية للحقوق الرمزّية واللغوية والثقافية والدينية لكل مُكوّنات المجتمع وقدرة جميع المواطنين على المشاركة الكاملة فيه – لدرجة أنهم على استعداد للحد من الحقوق الفردية ضمانا للسلم المجتمعي والتوازن الهوياتي.
وفي السياق الجزائري، نلمس تَصورًا معياريًا وقانونيًا مجتمعيًا يقوم على صيانة الكرامة والمساواة بين الجميع باعتبارها الأساس الاجتماعي والسياسي للمواطنة ويرفض الإساءة لأي طرف بناءا على جملة من المعايير المتفق عليها وهذا ما يتجلى لنا في المادة 01 من القانون رقم 20-05 المؤرخ 28 أبريل 2020 الخاص منع ومكافحة التمييز وخطاب الكراهية المرتبط بتكنولوجيات الاعلام والاتصال والتي تعرف خطاب الكراهية على أنه:
«جميع أشكال التعبير والتواصل التي ترّوج للتميّيز أو تُشّجعه أو تبرّره وكذلك الأشكال التعبيرية التي تعبر عن الازدراء أو الإذلال أو العداء أو الكراهية أو العنف تجاه شخص أو مجموعة من الأفراد بسبب الجنس أو العرق أو لون البشرة أو النسب أو الأصل القومي أو الأصل العرقي أو اللغة أو الموقع الجغرافي أو الإعاقة أو الحالة الطبية». (Loi n° 20-05, 2020)
2. خطاب الكراهية السيبراني، الأطر والديناميات السوسيو-تقنية
يٌمكن مقاربة خطاب الكراهية السيبراني (cyberhate) استهلالًا على أنه جُملة من الممارسات اللغوية والتواصلية الرقمية التي تستبطن العنف والعداء والازداء المُوّجه نحو الأفراد الاخرين بصفة قصدية بناءًا على اختلاف هوياتهم أو أعراقهم أو توجهاتهم السياسية ويُنظر إلى خطاب الكراهية بصفة عامة على أنه استخدام مُتَعمد وقَصدي لتكنولوجيات الاتصال الإلكترونية لنشر مضامين تحمل صبغة الكراهية والاقصاء والتَعصّب ضد فرد أو مجموعة بعينها (Masud & a, 2021: 504).
فهو يُمثّل الاستخدام المَقصُود لمختلف التطبيقات والمنصّات الرقمية التي يتيحها الويب 2.0 بهدف التعبير أو التحريض على الكراهية ونشرها ضد فئات اجتماعية أو أفرادًا محددين بناءً على انتماءاتهم العرقية والاثنية أو الدينية أو أي مُحدد آخر من باقي المُحددّات الكلاسيكية للجماعة الاجتماعية (Keipi, 2016 : 154). ويُعد هذا الاستهداف الجماعي أهم ما يُميزّ خطاب الكراهية عن باقي أشكال العُنف السيبراني الأخرى كالتَنمر والتَحرّش السيبراني أو المُطاردة السيبرانية والتي عادة ما تستهدف أفرادًا بوصفهم وعينهم لا لانتماءاتهم الفعلية أو المفترضة لجماعة معينة. ويُحاجج الباحث Costello وزملاؤه في هذا السياق أن خطاب الكراهية السيبراني لا يركزّ على الأفراد ولا يُهاجمهم بمَعزل عن انتمائهم لهوية أو عرقية أو ديانة معينة، بل إن استهدافهم عن طريق خطاب الكراهية ما هو إلا محصلة لانتماءاتهم الجمعية (Costello, Hawdon &Ratliff, 2017: 589). ولا يعني هذا بالضرورة أن المضامين الرقمية التي تحضّ على الكراهية لا يمكن أن تستهدف الأفراد. ففي مثل هذه الحالات، يتم استهداف الأفراد والحط من قيمتهم الرمزية والمعنوية ليس بسبب ذواتهم الشخصية، أو سلوكياتهم وخصائصهم الفردية؛ بدلًا من ذلك يتم استهدافهم بشكل مُمنهج على أساس عُضويتهم الفعلية أو المُفترضة في مجموعة معينة.
وظهرت مضامين الكراهية لأول مرة على الشبكة العنكبوتية عام 1984 في الولايات المتحدة، أي قبل ظهور شبكة الويب العالمية (World Wide Web) نفسها، حيث كانت الجماعات المتطرفة إيديولوجيا والناشطون في اليمين المتطرف يستخدمون بالفعل أجهزة الكمبيوتر المكتبي للتواصل فيما بينهم ابتداءً من أوائل الثمانينيات، حيث كان يتم نشر سلسلة من المقالات والنصوص التي تحطّ من قدر اليهود والأفارقة الأمريكيين على نظام لوحة البيانات (bulletin board system) وهو نظام حاسوبي يمكن مستخدمي الحواسيب من التفاعل والتواصل النصي. (Winter, 2019 : 43).
ومع نهاية الثمانينات ظهرت منتديات النقاش الالكترونية (discussion forums) والتي تم استثمارها في نشر وتداول الخطابات العنصرية والخطاب الذي يحض على الكراهية ضد فئات معينة. ويُمكن تصنيف موقع Stormfront كأول موقع مُتخصصّ في نشر خطاب الكراهية على مستوى الانترنت، وله جذور تعود إلى منتصف التسعينيات، حيث سَعى هذا الموقع إلى نشر إيديولوجيا تفوق العرق الأبيض (Meddaugh & Kay, 2009 :251). وقد ظهر هذا الموقع في عام 1990 في إطار حملة ترويجية للمرشح David Duke في انتخابات مجلس الشيوخ الأمريكي في ولاية لويزيانا؛ وبحلول عام 1996 طور المرشح المذكور والعضو بجماعة المتطرفة المعروفة باسم (Ku Klux Klan) هذا الموقع البسيط في تصميمه من الناحية التقنية وحوّله إلى موقع إلكتروني نشيط تحت مسمى Stormfront.org بعد أن اكتسب حضورا ومرئية أكبر (Meddaugh & Kay, 2009 :253). وبحلول عام 2009 أصبح هذا الموقع من أكثر المواقع زيارة على الركح الافتراضي واكتسب أكثر من 159 ألف عضوًا جديدًا (Meddaugh & Kay, 2009 :254). وبحلول 2017 أصبح الموقع يضم أكثر من 300 ألف عضو نشط، وتجدر الاشارة إلى هذا الموقع قد فتح الطريق للمواقع ذات الأجندة المشابهة وشَكل نموذجا تقنيًا يُحتذَى به في ما يخص التصميم التقني والإيديولوجيا، إذ بعد عام 1996 ظهرت العديد من موقع الكراهية دخل الفضاء السيبراني، حيث بَلَغ عددها آنذاك أكثر من 150 مجموعة كراهية نشطة (Peters,2020: 02). ومع ظهور سائط التواصل الجديدة بداية انتشارها في عام 2011، ارتفع عدد جماعات الكراهية التي تنشط داخل الفضاء السيبراني إلى 11.500 مجموعة (Peters,2020: 03). ويرى الباحثان Costello & Hawdon أن هذا العدد قليل جدا مقارنة مع الأعداد الحالية، إذ عمل انتشار وسائط التواصل الاجتماعي على تفاقم مشكلة الكراهية وتزايد كثافاتها وانتشارها، حيث وفرّت هذه الوسائط العديد من المنافذ والامكانات لأي مستخدم تقريبًا لنشر محتوى يحّض على الكراهية بسرعة وكفاءة تقنية (Costello & Hawdon, 2018 :57). وفي الواقع، لا تعد المنتديات والمواقع المسيرة من قبل مجموعات الكراهية هي المصدر الوحيد للكراهية، بل يتم نشرها أيضا من قبل الأفراد من خلال مواقع الويب الشخصية والتدوين وحسابات منصات التواصل الاجتماعي.
ويتنوع منشأ خطاب الكراهية السيبراني، فقد يكون إيديولوجيا نابعًا من اليمين أو اليسار السياسي المتطرف؛ ويٌمكن أن يستهدف مجموعة واحدة (مثل المسلمين، الأفارقة، النساء…الخ) كما يُمكن أن يكون انعكاسا لقلق جماعي مُتخيّل على نحو مبالغ فيه (مثل الهجرة، حقوق الاقليات، السياسات البيئية…الخ)، كما يُمكن كذاك أن يكون موجها نحو أفكار ومفاهيم أكثر عمومية وتجريدًا (النظام الرأسمالي، التعددية الثقافية… الخ). علاوة على ذلك، هناك من يرى من الباحثين بأن خطاب الكراهية لا يقتصر فقط على تبني أطروحة أيديولوجية مُحددة والتعبير عنها وإظهارها نصيا وخطابيا داخل الفضاء السيبراني، بل يشمل أنشطة سيبرانية متعدّدة وممنهجة منها ما يتم من خلاله استهداف أفراد أو مجموعات مُحددّة عن طريق رسائل نصية مباشرة أو تعليقات أو إرسال برمجيات خبيثة للتجسّس أو محاولة سرقة البيانات الشخصية وانتهاك الحق في الخصوصية. (Perry & Olsson, 2009 : 188)
وكان يسود الاعتقاد بأن الجماعات المُتطرّفة إيديولوجيا والتي تنشر الكراهية عادة ما يكون أفرادها من الفئات الأقل تعليما وبالتالي الأقل تبنيًا للتكنولوجيات الجديدة والأقل تَمكنا من استخدامها، غير أن الدراسات والأبحاث الميدانية كَشفَت أن هذه المجموعات يُعد أفرادها من فئة المتبنين الأوائل والمبكرين للتكنولوجيا (Perry & Olsson, 2009: 192). إذ وفرت وسائط التواصل الاجتماعي بديلًا مثاليًا عن الأشكال التقليدية للدعاية والتجنيد والتعبير عن خطاب الكراهية في مختلف تجلّياته، الأمر الذي كان يتم سابقا في الفضاءات الاجتماعية ، حيث غالبًا ما كانت تستغرق عملية الدعاية ونشر خطاب الكراهية وقتًا طويلًا ويُصاحبها الرفض الاجتماعي، حيث كانت تتضمن إصدار نشرات إعلانية وتعليقها في أماكن سرية والقيام بالاجتماعات المخفّية عن الأنظار وحفلات موسيقى الروك تحت الأرض ومباريات كرة القدم ومختلف عمليات التسويق الاجتماعي داخل فضاءات الثقافة المضاد (counter-culture ) أين كانت تتم محاولة جذب الأفراد المؤيدين والمتعاطفين فعليا مع قضية الكراهية أو على الأقل أولئك المنفتحين على إمكانية التحول. كما أن التعبير عن الكراهية في الواقع تصاحبه تبعات قانونية واجتماعية تعرض صاحبة لمخاطر فعلية. ومع ظهور الويب 2.0 والأجيال الجديدة من منصات الإنترنت تغيرت المعادلة التقنية، حيث أضحى بإمكان ناشري الكراهية استخدام المدونات ووسائل التواصل الاجتماعي والمواقع الإلكترونية الجماعية بسهولة وكفاءة للوصول إلى جمهور أكبر، وتجاوز القيود الجغرافية وتعزيز الشعور بالمجتمع بين أعضاء المجموعة الذين كانوا منفصلين فيزيائيًا، رغم أنهم لا يتفاعلون إلا في فضاء غير مادي.
وقد أشار Jeff Voss، زعيم ومُنظّر مجموعة النازيين الجدد بالولايات المتحدة الأمريكية، إلى أهمية الإنترنت لجماعات الكراهية، وأشار إلى أن «الإنترنت ساحة معركتنا» (Piazza, 2020: 432)، وصرّح قبله Thomas Robb، زعيم جماعة الكو كلوكس كلان Ku Klux Klan التي تقوم على كراهية السود، “الشيء الوحيد الذي نحتاجه هو الإنترنت” (Piazza, 2020: 433). وهو الأمر الذي يظهر مدى أهمية الفضاءات السيبرانية بالنسبة للعديد من المجموعات الداعمة لخطاب الكراهية والناشرة له، حيث تعد هذه المساحات الرقمية فضاءات اجتماعية بمعناها الدوركايمي (durkheimian sense)، وقنوات تفاعلية مفتوحة وسهلة الولوج وغير مُكلّفة، والأهم من ذلك أنه لا يمكن التحكّم فيها وتنظيمها بسهولة من قبل السلطات السياسية أو القانونية.
وعلى الرغم من أن خطاب الكراهية الرقمي لا يختلف جوهريًا عن خطاب الكراهية الموجود في الفضاء الاجتماعي التقليدي، إلا أن هناك خواص فريدة تُميزّ الخطاب المُنتج والمُتداول داخل المنصات الرقمية، ومن بينها ديمومة حُضور الخطاب الرقمي وبقاءه لفترة طويلة إضافة إلى إمكانية إعادة نشره ومشاركته مع أكبر عدد ممكن من مستخدمي المنصات الافتراضية، وضمن هذا السياق كلما طال بقاء محتوى الكراهية متاحا للجمهور كلما زاد التعرض له وبالتالي زاد من الضرر الذ يمكن أن يلحقه بالضحايا. كما تتيح المنصات الرقمية خاصية الحركية (mobility) لخطابات الكراهية، إذ يمكن نقل هذه الخطابات ضمن الفضاءات الرقمية المختلفة وبصيغ مختلفة مكتوبة أو مسموعة ومرئية، وحتى بعد المطالبة بحذفها أو حذفها فعليا يمكن إعادة استظهارها ونشرها من جديد ومشاركتها وعرضها على أكبر عدد ممكن من المستخدمين. ومن الزاوية السوسيولوجيا، نلحظ أنه بالرغم من الاختلافات الملحوظة في الخلفيات الأيديولوجية التي تتبناها مجموعات الكراهية داخل الفضاء السيبراني، إلا أن هذه المجموعات عادة ما تُموضع نفسها ضمن أطر وتصورات مُتَماثلة. حيت تُشبه هذه المجموعات في نسق عملها وتركيبها نمط المجموعات التقليدية المتطرفة سواءً الاجتماعية والدينية. إذ ترى هذه المجموعات نفسها كجماعات متنورة وطلائعية لكونها اكتشفت الاختلالات الاجتماعية والسياسية السائدة في المجتمع بشكل أبكر وأوضح من باقي مكونات المجتمع الأخرى (Bostdorff, 2004 : 348).
كما يتصوّر أعضاء هذه المجموعات أن في إمكانهم النفاذ لحقائق مخفية يستعصي على البقية معرفتها بحكم احتكار النخبة المسيطرة لها بهدف التسلط على المجتمع، وفي هذا المنحى عادة ما يتم رفض كل الطروحات المخالفة لهم واستنكارها باعتبارها ضربًا من ضروب التلاعب والتضليل المُوّجه. لذلك نجد أن خطاب الكراهية يحمل في ثناياه صورًا من صور الإلحاح والضرورة في اتخاذ الفعل، وتصوير ما ينجم عن الفاعلين الاجتماعيين من أفعال على أنها أخلاقية وعادلة مهما كانت درجة عُنفها وتطرّفها. (Adams & Roscigno, 2005 : 560)
ويرى الباحثان Adams & Roscigno أن الأفراد الذي يُمارسون الاقصاء ويَتبنون خطاب الكراهية عادة ما يُصنفّون أنفسهم في خانة الفئة المُهمشّة والمُضطَهدة ولذلك فهم يُسوّغون لأنفسهم نَوعًا من الشرّعية التي تسمح لهم بارتكاب العُنف الرمزّي وحتى المادي اتجاه الاخرين متى دَعّت الضرورة لذلك (Adams & Roscigno, 2005: 562). ويرتكز المُتبَنون والمنتجون لخطاب الكراهية على إطار تفسيري (interpretational framing) يُشّكل النواة الصَلبة لخطابهم ويَضمن استمراريته ويُميّز هويتهم ويُؤطر سلوكياتهم. ويَتَنوع المنطق الأساسي وهيكلية مضمون خطاب الكراهية بتنوع الجمهور أو الشريحة المستهدفة، فمثلا إذا كانت الشريحة المستهدفة فئة الذكور الشباب يكون المضمون ذو شُحنة عُنفية تفريغية ضمن استراتيجية لتوكيد الذات وبناء الهوية الجمعية وخلق نوع من التضامن بين المُتعاطفين المُحتملين، كما يتوافق بالضرورة في صياغته الاسلوبية والتداولية مع الخطاب التواصلي الشبابي. كما تَستهدف مضامين خطاب الكراهية أيضا فئة النساء على اعتبار أن الفئة النسائية تحظى بجاذبية اجتماعية وسيكولوجية كبيرة وبإمكانها تـأدية أدوار محورية داعمة لأيديولوجيات الكراهية (Assimakopoulos, Baider & Millar, 2017: 67). ومن خلال الانخراط في ثقافة البوب (pop culture) من خلال الميمات (memes) والصور التفاعلية الساخرة والجمل السينمائية والتعابير التلفزيونية المعروفة، يمكن أن يظهر منتجي الكراهية بمظهر شبابي مواكب للعصر ومقبول اجتماعيًا، حيث أصبحت حركات الكراهية السيبرانية بارعة بشكل خاص في الوصول إلى المراهقين والشباب في مواقع الانترنت والتواصل الاجتماعي خصوصًا على المساحات الشبابية الافتراضية مثل 4chan و8chan وReddit (Rieger et al, 2021 :21) ونظرًا لأن دينامية الاتصال في جوهرها دينامية تَخدم هدفًا أيديولوجيًا أو سياسويًا مُحددًا، فإن خطاب الكراهية يشتمل على عدة مستويات اتصالية وخطابية ولا يمكنه أن يكون محايدًا، إذ غالبًا ما يحتوي خطاب الكراهية على نص فرعي (subtext) يتم تضمينه بحيث لا يمكن النفاذ إليه إلا من خلال فهم رموز المجموعات أو وجهات نظرها، ويتم إخفاء الرسائل عمدًا. (Mills et al, 2021 : 704).
ويُظهر تمايز مضمون خطاب الكراهية وفقًا للفئات المستهدفة أن وظائفه تتجاوز مجرد نقل مضمون تواصلي من أجل مهاجمة فئة مُعينة في المجتمع والانتقاص منها، بل إنه يخدم وظائف مركّبة ومعقدّة. فمن الناحية العملية، عادة ما يَستَهدف خطاب الكراهية فئات مُتعددة بُغية تحقيق مقاصد متعددة، إذ يستهدف هذا النوع من الخطاب من هم داخل المجموعة (in-group) أو الفئة الضحيّة أو الخصوم أو المتعاطفين المحتملين أو المنافسين أو حتى الجمهور العام أو الأغلبية المُضطَهّدة (oppressed majority) كما تسمى عادة.
ويهدف خطاب الكراهية عموما إلى تأطير المؤيدين وإدماجهم ضمن نسيج المجموعة، وتعزيز المشاركة، واستحضار وفرض فهم مُحدّد لهوية المجموعة، وتصنيف المخالفين كأعداء والتحريض عليهم. (McNamee, Peterson & Peña, 2010 :259) علاوة على ذلك، يتم توظيف خطاب الكراهية لاستمالة الأفراد الذي يصعب مصادفتهم في الواقع الاجتماعي (offline settings) والذين قد يترددون أيضا في إظهار ايديولوجيتهم، أو الأفراد الذين يُحتمل أن يكونوا مهتمين بهذا النوع من الخطاب مع افتقاد القدرة على التحرك ميدانيا بشكل فردي. كما تُحاول هذه المجموعات تأجيج المؤيدين المحتملين بين مجموعات مُحدّدة من الأشخاص الهشّين والمُتوّجسين الذين يُمكن أن يتأثروا بسهولة، وخاصة المراهقين والشباب.
وعادة ما يتم استخدام إستراتيجيات ناعمة للاستقطاب والتأثير التدريجي والسلس على المواقف لتحويل وتجنيد المستخدمين الذين ما كان من الممكن ليتحولوا إلى مجموعات الكراهية هذه دون توظيف لهذه الاستراتيجيات (McNamee, Peterson & Peña, 2010 :259).
وفي كثير من الحالات، يتم تصوير المجموعة من الداخل (in-group) على أنها مسالمة، معرّضة للخطر ومتفوّقة على باقي الأنساق الاجتماعية، في حين يتم وصف الآخرين على أنهم غير عادلون ودونيون ويهددّون بشكل مباشر أو غير مباشر هذه المجموعات. إذ يتم بناء هوية مجموعة الكراهية من خلال التعظيم الذاتي (self-aggrandizement) للمجموعة وأعضائها، بناءا على تصورات ميثولوجية الاصطفاء أو الصفات الجينية والبشرية المتفوقة التي يفترّض أعضاء المجموعة أنهم يختصّون بها دون غيرهم. (Chris Hale, 2012 : 345).
كما تم تحديد وظيفة التجنيد كواحدة من السمّات الأساسية لخطاب الكراهية داخل المنصات الافتراضية. وغالبًا ما تبدأ العملية بتقديم المعلومات ووجهات النظر والمضامين الاتصالية حول قضايا مُعينة من زوايا مختلفة ونقدية ظاهريًا ضمن مسار مُحدّد يَتَدرج بصفة مرنة وجاذبة من نقطة لأخرى، يَتبع ذلك مُحاولات التأثير وتوظيف لاستراتيجيات الاقناع ومحاولات التغيير في الآراء والمواقف، لينتهي الأمر بحدوث التطرّف في مواقف المستهدفين ويبلغ ذروته في تحوير قناعاتهم وانضمامهم لهاته المجموعات، ويَسير التجنيد جنبًا إلى جنب مع سيرورة بناء الهوية للمجموعة (identity building) والتَسويق له. (Chris Hale, 2012 : 349).
ويتم توظيف المساحات الديجيتالية أيضًا في إعادة إنتاج هوية المجموعة ليس فقط من خلال مشاركة النصوص والمضامين السمعية البصرية والمعلومات، ولكن أيضًا من خلال إتاحة فرصة المشاركة للمؤيدين والجمهور المستهدف في بناء المحتوى والتفاعل معه والتعليق والمساهمة في نشره وتداوله. ونظرًا لأن الفضاءات السيبرانية هي فضاءات غير مادية وعابرة للحدود الجغرافية، فإنها تتيح خاصية التنسيق أيضًا على المستوى الدولي مع المجموعات ذات الأجندة أو الخلفية الإيديولوجية المتشابهة خصوصًا جماعات اليمين المتطرف وجماعات التفوق العرقي وجماعات الكراهية ضد المسلمين.
وكما سبق لنا الإشارة، فإنه بالرغم من انتشار مجموعات الكراهية المنظمة عبر الإنترنت بشكل واسع، إلا أن الإنتاج الفردي لمضامين الكراهية لايزال ذو دلالة بالغة، إذ يتفوق الأفراد الذين يمتلكون مواقع ويب ومدونات ومنتديات مخصصة للكراهية أو حسابات داخل منصات وسائل التواصل الاجتماعي كما وكيفا على جماعات الكراهية (Waltman, 2018: 261). وغالبًا ما يكون هؤلاء الأفراد غير مرتبطين أو متابعين بشكل مباشر لجماعات الكراهية المعروفة. حيث سَنح ظُهور منصات وسائل التواصل الاجتماعي بإضفاء الطابع الفردي على إنتاج الكراهية السيبرانية، إذ وفرت هذه المنصات للمستخدم العادي قنوات لبث مضامينه التي ينتجها بسهولة وفعالية، بما في ذلك مضامين الكراهية. فلم يعد الانتماء لمجموعة الكراهية شرطًا ضروريًا لنشر الكراهية. علاوة على ذلك، يبدو أن عدد الأفراد الذين ينتجون الكراهية عبر الإنترنت في ازدياد مضطرد وتصاعدي. فقد وجد استطلاع عام 2013 أن 9.7٪ فقط ممن شملهم الاستطلاع في الولايات المتحدة الأمريكية والذين تراوحت أعمارهم بين 15 و36 اعترفوا بإنتاج مواد ومضامين عبر الإنترنت يمكن أن يُصنّفها الآخرون على أنها تمييزية أو عنصرية ضد فئة مُعيّنة. وَوجدت دراسة مماثلة أجريت في عام 2018 أن 19.8% من الشباب الذي تم استجوابهم اعترفوا بإنتاج مواد تحض على الكراهية عبر الإنترنت، وهي زيادة معتبرة في غضون سنوات قليلة فقط. (Costello & Hawdon, 2018 : 57).
3. خطاب الكراهية السيبراني، الرهانات والمخاطر
يَتفقّ الكثير من الباحثون على أن الفضاء السيبراني قد أضحى المَحضّن الأول لإنتاج وتَداول عديد الأنماط من خطابات الكراهية (Shepherd & al, 2015: 02). إذ تَحوّل هذا الفضاء إلى حلبة صدامية ينتشر فيها العُنف الرمزّي والتنميط والقدح والثلّب والزينوفوبيا والأخبار المُزّيفَة ونظريات المُؤامرة ويَختَلط فيه الواقعي بالمُتخيّل ضمن مَنحَى تَبادلي ثُنائي التأثير والتأثرّ تَتَأجج فيه خطابات الكراهية والعُدوانية السيبرانية بتأججّ الظروف الاجتماعية والسياسية التي يَمرّ بها المجتمع مُخلّفة بذلك واقعا صراعيا لا مَفرّ منه على المُستوّيين الرقمي والواقعي.
وأصبح التعرّض لخطابات الكراهية تجربة مُلازمة ينبغي لكل مُستخدم لمنصّات الويب التفاعلي أن يصادفها، سوآءً عن الطريق التعرض السلبي وغير المقصود (passive exposure) أو عن طريق الاستهداف به. ففي الدراسة المرجعية للباحث الامريكي Costello في عام 2015، تعرض ما يقارب من 65.4٪ من مستخدمي التواصل الاجتماعي الامريكيين لمضامين إلكترونية تَحضّ على الكراهية عبر الإنترنت في الأشهر الثلاثة التي سبقت إجراء المسح (Bilewicz & Soral, 2020: 03). وفي دراسة مماثلة تَعرّض 74.7٪ من الأمريكيين الذين تتراوح أعمارهم بين 15 و21 عامًا لمواد كراهية متطرّفة في الولايات المتحدة في الثلاثة أشهر الأخيرة قبل إجراء الدراسة (Costello, Hawdon & Ratliff, 2017: 589). وقد ارتفعت مُعدلات التعرّض بصورة غير قصدية لمضامين الكراهية عبر الإنترنت من 58.6% في عام 2013 إلى 72.7% في عام 2018، بزيادة قدرها 24%، وهو ما قد لا يكون بالضرورة مفاجئًا، إذ أن مضامين الكراهية داخل وسائط المنصّات التواصلية يتم تطبيعها تدريجيا وتخدير الرفضّ الاجتماعي والأخلاقي لها (Costello & Hawdon,2018 : 57).
وفي دراسة ميدانية أجريت عام 2015 من قبل الباحث Costello وزملائه حول أكثر أنماط خطاب الكراهية الرقمي شُيوعا أشارت الدراسة إلى أن (46.3 %) من مضامين الكراهية المرتبطة بالعنصرية والاحالة إلى العرق تأتي في المقام الأول، في حين أتت مضامين الكراهية المرتبطة بالمعتقدات الدينية بنسبة (27.3٪)، وتلى ذلك المضامين بالكراهية على أساس جنسية الفرد وأصوله الإثنية أو حالة الهجرة (20.7٪)، وتُشكل مضامين الكراهية القائمة على التحيزّ الجنسي واحتقار النساء ما نسبته (20.6٪)، وتحتل الكراهية على أساس الآراء السياسية المرتبة الأخيرة بنسبة (19.4% ((Costello, Hawdon & Ratliff, 2017 : 562).
وفي دراسة مقارنة شملت ستة من الدول الغربية حول تفشي خطاب الكراهية الافتراضي، كان من بين النتائج أن ما نسبته (50.6%) من مضامين الكراهية في فنلندا هاجمت الأجانب والمهاجرين الموجودين داخل المجتمع الفنلندي. وفي بريطانيا كان ما نسبته (49.6%) من مضامين الكراهية السيبرانية يدور حول العرق والمقولات العنصرية، نفس الشيء تقريبًا في سياق المجتمع الأمريكي حيث أن غالبية مضامين الكراهية كانت موجهة نحو العرق بما نسبته (39.0%)، بينما في إسبانيا يرتكز أغلب مضمون الكراهية افتراضيًا بشكل أساسي على الجندر بنسبة (42.1%). وفي كل من فرنسا وبولندا، تركز الكراهية على العرق واستهداف المهاجرين والوافدين الجدد. (Jubany & Roiha, 2016)
ونظرا لتزايد تَمدّد المنّصات الافتراضية وحُضورها في مشهد الحياة الاجتماعية والسياسية، فإن خطاب الكراهية السيبراني يُمكن أن يؤدي إلى تآكل التماسك الاجتماعي ليس فقط بشكل مباشر، من خلال تسميم التواصل العمومي وخلق الاحتراب والتنافر المجتمعي، ولكن أيضًا بشكل غير مباشر، من خلال صُنع معايير مَرجعية ورُموز للكراهية يتم استنساخها وتداولها ومُحاكاتها من قبل المُستخدمين في الفضاء الاجتماعي الواقعي مما يُهدّد بنسف التعايش داخل مكونات المجتمع الواحد.
كما ترتبط المخاوف الكبرى بشأن خطاب الكراهية داخل الفضاءات الرقمية بقدرته على دفع الأفراد للتطرف (radicalization) والانتقال من التأييد السلبي والتعاطف الى الفعل العنفي بناءا على التبني الأيديولوجي لتصور معين. وفي واقع الأمر، هناك العديد من الدراسات الميدانية التي تربط امبريقيا بين التعرض المتكرّر لمحتويات خطاب الكراهية على الإنترنت وبين ممارسة العنف، بما في ذلك العنف الجماعي (mass violence) وحتى الانخراط في أنشطة الإرهاب (Castaño-Pulgarín et al , 2021).
وأفاد المركز الأمريكي المتخصّص في مجابهة اليمين المُتطرّف المعروف باسم (The Southern Poverty Law Center) أن الأعضاء المُسجلين في موقع Stormfront والذي سَبق وأن أشرنا إليه، أنهم كانوا وحدهم مسؤولين عما يقرب من ارتكاب أزيد من 100 جريمة قتل على أساس الكراهية، كما أن هناك أيضًا العديد من الأمثلة الواقعية حول ارتباط التعرض المتكرر والمنتظم لمضامين الكراهية بعملية الانتقال لارتكاب العنف، أين أصبح المُتطرفون مُتطرفين ذاتيًا (self-radicalized) بعد مشاهدة مواد راديكالية عبر الإنترنت (Costello & Hawdon, 2020). ويُعد وايد ميشال بايج Wade Michael Page والذي قَتل ستة أشخاص في معبد للسيخ في مدينة ويسكونسين Wisconsin الامريكية سنة 2012، مثالًا عن هذه الحالات، إذ كان عُضوا نشيطا في مجموعات الموسيقى المرتبطة بالنازية الجديدة داخل الفضاء الافتراضي (Durrani & Naseer,2021). وبالمثل، فإن أحد مدبرّي ومُنفذّي تفجير ماراثون بوسطن وهو Tamerlan Tsarnaev، أصبح مُتطرفًا بعد مشاهدة ونشر مقاطع فيديو جهادية على الإنترنت.
وفي نفس المساق، قتل Omar Mateen 49 شخصًا وجرح 53 آخرين في ملهى Pulse الليلي في أورلاندو بفلوريدا، بعد أن استوحى أفكاره من المنظمات الإرهابية الأجنبية عبر الإنترنت (Olteanu et al , 2018). وعلى نفس المنوال، قَتَل الأمريكي ديلان روف Dylann Roof، وهو مُتعصّب للبيض (white supremacist) تسعة أشخاص في كنيسة خاصة بالسود في ساوث كارولينا، بعد أن أصبح متطرفًا أيضًا من خلال مواقع التواصل الاجتماعي (Berman,2016 : 401). كذلك حالة المتطرف النازي Anders Behring والذي قام بمجزرة ضد المسلمين عام 2011 التي راح ضحيتها 77 شخصًا في النرويج؛ والمتطرف الأبيض برينتوت تارانت Brenton Tarrant والذي قتل 50 مسلمًا في هجوم على مسجد في نيوزيلندا وقام بالنقل المباشر للعملية الإرهابية لمتابعيه (Borgeson & Bacigalupo , 2022 : 119). وفي المحصلة يُعد المتطرفون اليمينيون الذين غالبًا ما يتطرفون بصفة مُتدرجة عبر منصات الإنترنت الأكثر عنفًا ودموية (Scrivens, Gill & Conway, 2020). وتعكس هذه الحالات والنماذج حقيقة أن خطاب الكراهية السيبراني لا يهدف فقط إلى التشجيع على العنف والتطرّف ضمن أطر نسقية بشكل مباشر، بل أيضا بشكل غير مباشر عن طريق استفزاز ردود فعل فردية وسيكولوجية متطرّفة، وهو ما يُطلق عليه في الأدبيات البحثية بـ ’الفعل دون توجيه’ (leaderless action) أو بإرهاب الذئاب المنفردة (lone wolf terrorism) نظرًا لأن عمل الذئب المنفرد لا يتم تنسيقه مركزيًا، ولا يتم التخطيط له بشكل نشط من قبل منتجي خطاب الكراهية ولا يمكن نسبه مباشرة إليهم (Post, McGinnis & Moody, 2014 : 309). ووفقًا لمديرة التحقيقات الخاصة في المركز الأمريكي المتخصّص في مجابهة اليمين المُتطرّف Heidi Beirich، فإن صفحات التواصل الاجتماعي والمنتديات والمدوّنات الشخصية التي تُشرف عليها الجماعات الأيديولوجية المتطرفة تُقدم مساحات لقاء وتنفيس للأفراد الساخطين الذين يَرون في هذه الفضاءات مساحات للعدالة التعبيرية وتَشارك الآراء وتحديد العدو المشترك الذي يجب القضاء عليه. (Beirich & Potok, 2009 : 256) وتحدث عملية التطرّف ضمن منحى تدريجي يبدأ بتلقي الرسائل الإيديولوجية التي تُشجع على التحوّل من الاعتدال إلى التطرف في الآراء والمواقف. بعدها يفعل التَعرّض المُتكرّر للمواد المُتعلقة بخطابات الكراهية مفاعيله في التطبيع مع الآراء والتصورّات المٌتعصّبة والمُتحيزّة إيديولوجيا لدرجة العمى وعدم القدرة على التمييز المنطقي وتبني نظريات المؤامرة، مما يؤدي غالبًا إلى التطرف غير المقصود وبعدها التورّط في ارتكاب العنف. (Beadle, 2017 : 43) وعلى مستوى الاثار السيكولوجية والاجتماعية، يُعاني الأفراد ضحايا مضامين الكراهية عبر منصات الإنترنت من اثار سوسيو-نفسية بالغة الحدةّ، بما في ذلك التَهيّج السيكولوجي، التقلبات المزاجية، والغضب المتزايد، والشعور بالوحدة، والخوف الرُهابي، كما يمكن أن تستمر هذه المتاعب السيكولوجية لفترات زمنية أطول ولا تكون عَرَضية فقط (Hawdon, Bernatzky & Costello, 2019 : 338). وأظهرت بعض الدراسات الميدانية أيضًا أن أحد الآثار طويلة المدى للتعرّض للمضامين التفاعلية داخل الفضاء السيبراني هو تضاؤل الثقة بالنفس والانكفاء على الذات وقلّة التفاعل الاجتماعي مع الاخرين (Saha,Chandrasekharan & De Choudhury,2019).
كما توصلت دراسة Oksanen وزملاؤه والتي شملّت عينّة مُوسعّة من المُستخدمين الشباب من الفئات المُهمشّة الاجتماعية والذين كانوا ضحايا لخطاب الكراهية، أن التعرّض للكراهية يُقلّل من مُستويات الثقة بالنفس، ويدفع بالضحايا إلى الانسحاب من المشاركة الاجتماعية والسياسية (Oksanen et al 2014 : 14). كما يُمكن أن يؤدي التَعرّض المُتكرّر للمضامين التي تحضّ على الكراهية في الفضاء السيبراني إلى تَعزيز التميّيز ضد الفئات الاجتماعية الهشّة وغرس الكراهية اتجاههم وحتى التشجيع على ارتكاب العنف تجاه الأقليات واستعمالهم ككبش فداء (Soral, Bilewicz, & Winiewski, 2018).
ويتعمّق النقاش حاليا حول مسألة خطاب الكراهية داخل الفضاء السيبراني بعد أن اتخذ أبعاد عديدة، وقد تجلي الاهتمام الاولي في محاولة التصدي لهذا النوع من الخطاب بإنشاء موقع الكتروني تحت مسمى “Guide to Hate Groups on the Internet“ من طرف الباحث الامريكي بقسم الحقوق بجامعة هارفرد David Goldman سنة 1995، وتم تغيير اسم الموقع لاحقا إلى Hate Watch، وطرح الموقع عدة دراسات وتنظيرات بخصوص خطاب الكراهية ودينامياته (Meddaugh & Kay 2009: 259). وبدأت أولى الدراسات الأكاديمية لخطاب الكراهية في بداية التسعينات، غير أن جزءً كبيرا من الأدبيات البحثية المتعلقة بالكراهية السيبرانية ركزّ على الحركات العرقية المُتطرّفة، والتي تشمل حركة Ku Klux Klan وجماعات الكراهية المُناهضة للسود، وغيرهم من المُتطرّفين اليمينيين والمجموعات المعادية للأجانب (Pollock, 2009). إذ كانت الدراسات الأولى التي بحثت في موضوع خطاب الكراهية تنطلق من فرضية أن الشكل الوحيد الموجود لهذا الخطاب هو ذلك الذي يرتكزّ على إيديولوجيا التفوق العرقي الأبيض (white supremacy) من قبل الحركات الامريكية المتطرّفة، ولم يتم تَمديد هذا المفهوم وتَضمين أشكال أخرى ومُوازية من خطاب الكراهية في الأجندة البحثية إلا مؤخرًا بفعل تَغوّل هذا النسق من الخطابات داخل مواقع الشبكات الاجتماعية والحوامل والتدويينة والتي أضحّت وعاءً حاضنًا لمختلف أشكال خطابات الكراهية والعنصرية والاحتراب الإثني والهوياتي. (Post, McGinnis & Moody,2014).
وتعود جذور توغلّ خطاب الكراهية في البيئة الرقمية واستفحاله إلى جملة من العوامل السوسيو-تقنية المترابطة والمتداخلة. حيث يتعلق رهان فهم الأنماط الجديدة للكراهية داخل منصات التفاعل الافتراضي على فحص التقاطعات بين العمليات السوسيوثقافية والتكنولوجية، إذ يمكن للمستخدمين تحوير ما تتيحه المنصّات الرقمية من خلال استغلال البنية التحتية التقنية لفضاءات التواصل الاجتماعي لأجندتهم من أجل التقاط الطرائق الجديدة لشن الكراهية والاستعداء السياسي والديني والثقافي وخلق الصدام الرقمي بين الهويات. فمن الناحية التقنية، يتميزّ المجال السيبراني باعتباره حيزّا تفاعليًا متعدد الأقطاب ومتعدد الوسائط بسهولة النفاذ والإنتاج المتواصل ومشاركة المضامين مع عدد غير محدود من المتلقّين، إذ قوضت أدوات التواصل الاجتماعي الاتجاه الأحادي لتدفق المحتوى من المنتجين إلى ومكنّت المستخدمين العاديين من خيار المشاركة في إنتاج النصوص والمضامين وتوزيعها دون قيود أو فرز أو إشراف تحريري.
وضمن هذا المعطى، تُضيف مجهولة الهوية، أو على الأقل المجهولية المتصوّرة (perceived anonymity) تأثيرات سيكولوجية أخرى تزيد من كثافة خطاب الكراهية، حيث يُنظر إليها على أنها تلعب دورًا رئيسيًا في تحرير الافراد من الامتثال للقواعد الاجتماعية السائدة لأنهم لا يشعرون بالتهديد بالعقوبة أو المساءلة عن أفعالهم (Duncan, 2017). إذ يقود تصوّر الاحساس بالخفاء أو عدم انكشاف هوية المستخدمين إلى إزالة التثبيط (disinhibition) والتحرّر من مُحددات الانضباط السلوكي التي نجدها في الواقع الاجتماعي، وينجم عن ذلك التحرّر من المعايّير الاجتماعية وإطلاق العنان لجُملة من السلوكيّات التي تظهر على مستوى مساحات التواصل الرقمي مع محدودية تكرارها أو إعادة إنتاجها في سياقات الاتصال الاجتماعي وجهًا لوجه، وعادة ما يتم تَمَثّل مفهوم مجهولية الهوية بشكل فضفاض يتراوح بين عدم الكشف عن الهوية المطلق إلى الادراك الخاطئ بكون الفرد مجهول الهوية كليا، وتخلق مجهولية الهوية الشعور بأن الفضاء السيبراني يختلف جوهريًا عن التفاعلات الحقيقية، أي أقل أهمية وأكثر حرية وذات قيمة مختلفة. وتخلق الفضاءات الافتراضية باعتبارها فضاءات غير مادية إحساسا بالانفصال الجسدي (physical separation)، والذي يُعتبر أيضًا عاملًا لتفاقم الكراهية والسلوك العدواني داخل هذه المساحات (Lewandowska-Tomaszczyk, 2017). من ناحية أخرى، يرتبط عدم الكشف عن الهوية ارتباطًا وثيقًا بما يُعرف بعملية نزع الفردانية (de-individuation) أي انتزاع الفرد من ذاته وعقلانيته وخضوعه للمجموعة ومزاجها وشروطها النفسية وما ينجم عن ذلك من تقليل الوعي الذاتي للفرد بل وفقدانه له ذوبانًا في الجماعة (Thurlow & Bell, 2009). إذ أن المشاركة في التفاعلات الافتراضية تُعزّز قبول معايير المجموعات الافتراضية التي ينتمي لها المستخدم على حساب معايير السلوك الفردية والعقلانية (Perfumi et al 2019).
ويرتبط نزع الفردانية ارتباطًا وثيقًا بفقدان المسؤولية الشخصية عن السلوك وشطب الوعي الفردي وانتشار ديناميكيات الغوغاء، حيث تختفي الإرادة الفردية وتظهر إرادة جماعية مختلفة عن الأفراد ومنفصلة عن ذواتهم العاقلة والارادية، مما يولد واقع عنفي وصدامي يصعب التكهنّ بمستوى تطوره ومآلاته، تتحول فيه الجماعات الافتراضية إلى عصب أو عصابات إلكترونية (virtual mobs) تهاجم كل من يختلف عن المجموعة في طرحها أو مرجعياتها، وتسود المبالغة والاستقطاب في التعامل مع الاختلافات المشتركة بين الآراء والرؤى بين شرائح المجتمع ويصبح خطاب التحريض والكراهية والصدام المسلك الوحيد للفعل والتواصل والتفاعل (Kothgassner & Kafka, 2018 : 154).
وعلى مستوى محاولة التصدي لخطاب الكراهية داخل الفضاءات السيبرانية نفسها، فمن الناحية النظرية تملك مختلف منصات الويب بما فيها وسائط التواصل الاجتماعي حرية التدبير والتعامل مع المواد التي تحضّ على الكراهية، إلا أنه من الصعب عمليا تطبيق سياسات مكافحة الكراهية بشكل فعال (Citron & Norton, 2011 : 1435). وعلى أرض الواقع، تَستخدم بعض شركات التكنولوجيا التي تُشرّف على تسيير مواقع التواصل الاجتماعي أنظمة الذكاء الاصطناعي (Artificial Intelligence systems) لمراقبة التفاعلات الافتراضية التي قد تحضّ الكراهية أو تتضمن العنف اللفظي، ومع ذلك، قد لا يكون الذكاء الاصطناعي دائمًا وسيلة فعالة لرصد خطاب الكراهية لأن الأنظمة الخوارزمية تفتقر إلى مهارات التمحيص والحكم (judgment skills) التي يمتلكها البشر. وتعد عملية الكشف عن خطاب الكراهية داخل الفضاء السيبراني عملية تقنية معقدة وغير فعالة دائما، إذ ينبغي على المنصات الافتراضية إيجاد المضامين المثيرة للجدل، وبعدها تحديد ما إذا كانت هذه المضامين تصنف تحت خانة خطاب الكراهية أو لا، يلي ذلك إيجاد طرق فعالة للتعامل مع الانتهاكات بفعالية عن طريق الحظر أو الحذف، وبالتالي فإن عملية رصد وإزالة المواد التي تحضّ على الكراهية حتى بعد العثور عليها تعد مهمة طويلة وغير مضمونة الفعالية.
من جهة أخرى، فإن منتجي خطاب الكراهية على دراية كاملة بالتصميم التقني لهاته المنصات ونظم اشتغالها، إذ يتم الاستعانة بتكتيكات فعالة للتهرّب من الرقابة وتضليل أنظمة المتابعة التقنية، ومن بين هذه التكتيكات على سبيل المثال، أن يتم تشفير خطاب التحريض والكراهية ضمن منشورات عادية وتضمينها لحمولات عنصرية وتحريضية يصعب قراءتها ظاهريًا، كما يقوم مُنتجو المحتوى والمستخدمون بمغالطة أنظمة الذكاء الاصطناعي التي تُراقب الكلام الذي يحضّ على الكراهية عن طريق القيام بأخطاء إملائية (misspelling) متعمدة، أو استبدال بعض الأحرف برموز في الكلمات والجمل التي يتم نشرها فلا تتعرف عليها الأنظمة المذكورة. (Burnap & Williams, 2015).
وتَحظر سياسات استخدام Facebook المحتوى الذي يُثير الكراهية والتحريض على العنف والعنصرية، كما تلتزم هذه الشبكة الاجتماعية بإزالة المحتوى الذي يتضمن خطاب الكراهية ويهاجم الأفراد على أساس العرق أو الأصل القومي أو الانتماء الديني. وتَفرض شروط استخدام الفايسبوك على المستخدمين التسجيل بهويتهم الأصلية ويتم إعلامهم مُسبقا بسياسات الاستخدام وإرشادات النشر والمشاركة حتى يتم تحميلهم قدرًا أكبر من المسؤولية في حال نشرهم أو مشاركتهم لمحتوى الكراهية (Carlsen & Haque 2017). وتُوظّف شبكة Facebook أكثر من 7500 مراجع للمحتوى والذين تتمثل مهمتهم في النظر في التبليغات والشكوى التي تأتي من المستخدمين بالإضافة لفحص المنشورات المثيرة للجدل، ويحرص المراجعون على تطبيق سياسات الفايسبوك، كما يتم توظيف العديد من برمجيات الذكاء الاصطناعي والخوارزميات. (Tobin, Varner & Angwin, 2017).
وتملك منصة Instagram، وهي منصة تفاعلية لمشاركة الصور والفيديو مملوكة لشركة الفايسبوك، إرشادات مماثلة لحظر خطاب الكراهية مثل شبكة الفايسبوك، كما تحظر تداول الأخبار المزيفة والتضليل والمحتويات السمعية البصرية التي تنتهك كرامة الأفراد وحقوقهم المعنوية. (Instagram Community Guidelines, 2022).
وبدأت منصّة Twitter في فرض سياسات جديدة تجاه خطاب الكراهية والتعامل معه منذ ديسمبر 2017، ووضع إرشادات جديدة لحدود حرية التعبير ومحضوراتها داخل فضاء المنصّة، حيث يتم تتم معالجة حالات خطاب الكراهية خلال 24 ساعة وتتراوح عقوبات الانتهاكات من تعليق قدرة المستخدم على التغريد حتى إزالة المنشور المسيء إلى إزالة الحساب بالكامل. (Ong, 2017) وفي عام 2019، أنشأ موقع YouTube نظامًا للإبلاغ عن خطاب الكراهية من أجل مواجهة الاتجاه المتزايد لانتشاره واستفحاله، ويُمَكن هذا النظام المستخدمين من الإبلاغ عن أي مستخدم آخر أو عن المحتوى الذي يعتبرونه مؤذي أو مُهّين دون الكشف عن هويتهم، بعد ذلك تتم مراجعة المحتوى المبلغ عنه وفقًا لسياسة YouTube ويتم اتخاذ القرار بإزالته أو تركه. ولكن بالرغم من ذلك تم توجيه العديد من الانتقادات للمنصة نظرا لأن الكثير من منشئي المحتوى العنصري ومضامين الكراهية لا يزالون يملكون قنواتهم ومشتركيهم ولا يزالون يبثون مضامينهم رغم حظرها (Munger & Phillips, 2019).
خاتمة
تُمثّل فضاءات الويب 2.0 مساحات رقمية يلعب فيها المُكوّن الاثني والثقافي للأفراد والتوترات الناجمة عن ذلك دورا أساسيا في صياغة التفاعلات الافتراضية بين المستخدمين، إذ عادة ما يتم شحن الفروقات والاختلافات الهوياتية وتحميلها دلاليا برموز ومعاني العنف الرمزي والتنميط والوصّم لكل ما هو مُختلف ومُخالف خصوصا في ظلّ تزايد منسوب الاحباطات المجتمعية وتَصلّب المنظومة الاقتصادية والاجتماعية، ففي بعض السياقات يُمكن لوسائط التواصل الاجتماعي أن تلعب دورًا مُساعدًا في نشر الكراهية والتحرّيض على العُنف والخطاب العنصري بمختلف تجلّياته وخلق نوع من الاحتراب الاثني والاجتماعي بين مختلف مكونات المجتمع الواحد، حيث يَتَكَيف مُنشئو المُحتوى مع البيئات الرقمية عن طريق استثمار خصائصها التشاركية والفورية لبناء ونشر أنماط جديدة من العداء العرقي والثقافي، من خلال استخدام خاصية مجهولية الهوية، جنبًا إلى جنب مع إمكانيات نشر النصّوص والمضامين والنفاذ إلى الموارد المتعددّة الوسائط والتفاعل معها، واللجوء لاستراتيجيات التعامل مع سياسيات المحتوى لتفادي حذف ما يتم نشره داخل هذه المنصّات الرقمية.
في هذا السياق، لا ينبغي اعتبار المنصّات التفاعلية والرقمية مجرد قنوات اتصال محايدّة، بل هي أنظمة اجتماعية وتقنية معقدة (socio-technical systems)، تلعب دورًا رئيسيًا في تشكيل العلاقات الاجتماعية افتراضيا وبناء نسق من التفاعلات الرقمية التي لها تأثير مباشر في الديناميات الاجتماعية، بما في ذلك تلك المتعلقة بديناميات الهوية والاثنية والفوارق الثقافية والتوجهّات الأيديولوجية. ويتطلّب فهم هذا التَعقُّد مقاربة سيرورة إنتاج خطابات الكراهية وتَدَاولها عند تَقَاطُعات البنى التحتية التكنولوجية وسياسات المحتوى لمختلف المنصّات الرقمية وكذا ممارسات المستخدم والقيم السوسيو-الثقافية والمخيّالية التي يستّند إليها في إنتاج المعنى وبناءه داخل الحقل الاجتماعي.
وانطلاقا من الطرح السالف أصبح من المُستعجل التنّبه لظاهرة خطاب الكراهية السيبراني والذي لم يبقى فقط حبيس منصّات التفاعل الموازّية بل انتقل من جسر منصات الفضاء الرقمي إلى قلب الصيرورة المجتمعية وتمفصّلاتها الاجتماعية والمادية. ولا يكون ذلك إلا من خلال تفعيل الترسانة القانونية وتَكيّيفها مع مُعطيات البيئة الرقمية وضبط الحقول الدلالية لمضامين الكراهية وتجريم بثها وتداولها، وقبل ذلك لا بد من التعزيز من مسارات التضمين والمواطنة وضمان تكافؤ الفُرص داخل المنظومة الاقتصادية والاجتماعية والتنفيس من الاحتباسات الاجتماعية والرمزية والتأسيس لمصفوفة ثقافية من القيم التي ترتكز على التنوع والتعدد والتوافق.
قائمة المراجع:
Adams, J., & Roscigno, V. J. (2005). “White supremacists, oppositional culture and the World Wide Web”. Social Forces, 84(2), 759-778.
American Library Association. 2017. “Hate Speech and Hate Crime”. Retrieved 16 March 2021 From: http://www.ala.org/advocacy/intfreedom/hate.
Assimakopoulos, S., Baider, F. H., & Millar, S. (2017). Online hate speech in the European Union: a discourse-analytic perspective. Springer Nature.
Beadle, S. (2017). How does the Internet facilitate radicalization. London, England: War Studies Department, King’s College.
Beirich, H., & Potok, M. (2009). “USA: Hate groups, radical-right violence, on the rise”. Policing: A Journal of Policy and Practice, 3(3), 255-263.
Berman, E. M. (2016). “Dealing with cynical citizens”. In Local Government Management: Current Issues and Best Practices (pp. 401-414). Routledge.
Bilewicz, M., & Soral, W. (2020). “Hate speech epidemic. The dynamic effects of derogatory language on intergroup relations and political radicalization”. Political Psychology, 41, 3-33.
Borgeson, K, & J. Bacigalupo.(2022) “When Cyberhate Turns to Violence” Cyberhate: The Far Right in the Digital Age. Rowman & Littlefield. Washington DC.
Bostdorff, D. M. (2004). “The internet rhetoric of the Ku Klux Klan: A case study in web site community building run amok”. Communication Studies, 55(2), 340-361.
Brison, S. (2013). Hate speech. The International Encyclopedia of Ethics. Blackwell Publishing Ltd.
Bronner, S. J. (2011). “Framing Violence and Play in American Culture”. Journal of Ritsumeikan Social Sciences and Humanities, 3(2011), 145-160.
Brown-Sica M., Beall J. (2008). “Library 2.0 and the problem of hate speech”. The Electronic Journal of Academic and Special Librarianship, 9(2). https://digitalcommons.unl.edu/ejasljournal/99
Burnap, P., & Williams, M. L. (2015). “Cyber hate speech on twitter: An application on machine classification and statistical modeling for policy and decision making”. Policy & internet, 7(2), 223-242.
Carlsen, A., & Haque, F. (2017). “What Does Facebook Consider Hate Speech ? Take Our Quiz in”. The New York Times, 13.
Carmi, G. E. (2008). “Dignity versus Liberty : the two western cultures of free speech”. Boston University International Law Journal ,26, 277–374.
Castaño-Pulgarín, S. A., Suárez-Betancur, N., Vega, L. M. T., & López, H. M. H. (2021). “Internet, social media and online hate speech. Systematic review”. Aggression and Violent Behavior, 58, 1359-1789.
Chris Hale, W. (2012). “Extremism on the World Wide Web: A research review”. Criminal Justice Studies, 25(4), 343-356.
Citron, D. K., & Norton, H. (2011). “Intermediaries and hate speech : Fostering digital citizenship for our information age”. BUL Rev., 91, 1435-1447.
»Community Guidelines | Instagram Help Center«. www.facebook.com. Retrieved 04.04.2022 from : https://www.facebook.com/help/instagram/477434105621119
Costello, M., & Hawdon, J. (2018). “Who are the online extremists among us ? Sociodemographic characteristics, social networking, and online experiences of those who produce online hate materials”. Violence and gender, 5(1), 55-60.
Costello, M., & Hawdon, J. (2020). Hate speech in online spaces. The Palgrave Handbook of International Cybercrime and Cyberdeviance, 1397-1416.
Costello, M., Hawdon, J., & Ratliff, T. N. (2017). “Confronting online extremism: The effect of self-help, collective efficacy, and guardianship on being a target for hate speech”. Social Science Computer Review, 35(5), 587-605.
Davidson, J., & Martellozzo, E. (2013). “Exploring young people’s use of social networking sites and digital media in the internet safety context : A comparison of the UK and Bahrain”. Information, Communication & Society, 16(9), 1456-1476.
Dictionary Cambridge org. (2022) .Hate speech. Retrieved 13 March 2022 https://dictionary.cambridge.org/us/dictionary/english/hate-speech
Duncan, P. K. (2017). The Uses of Hate: On Hate as a Political Category. M/C Journal, 20(1). https://doi.org/10.5204/mcj.1194
Frey, H., & Noys, B. (2007). “Introduction :Reactionary times”. Journal of European Studies, 37(3), 243-253.
Gagliardone, I., Gal, D., Alves, T., & Martinez, G. (2015). Combattre les discours de haine sur internet. UNESCO Publishing.
Gelber, K. (2017). “Hate Speech-Definitions & Empirical Evidence”. Const. Comment., 32, 619-629.
Gillespie, A. A. (2014). Hate and harm: the law on hate speech. In Research Handbook on EU Internet Law (pp. 488-507). Edward Elgar Publishing.
Hannan Durrani, D., & Naseer, M.(2021) .Hate Speech and Culture of Trolling on Social Media. DOI :10.13140 /RG.2.2.16077.56806
Hawdon, J., Bernatzky, C., & Costello, M. (2019). “Cyber-routines, political attitudes, and exposure to violence-advocating online extremism”. Social Forces, 98(1), 329-354.
Howard, E. (2017). “Freedom of speech versus freedom of religion? The case of Dutch politician Geert Wilders”. Human Rights Law Review, 17(2), 313-337.
Howard, J. W. (2019). “Free speech and hate speech”. Annual Review of Political Science, 22, 93-109.
https://www.theverge.com/2017/12/18/16789606/twitter-new-safety-policies-hate-groups
Hyman, T. (2020). The Harms of Racist Online Hate Speech in the Post-COVID Working World: Expanding Employee Protections. Fordham L. Rev., 89, 1553.
Jane, E. A. (2015). “Flaming? What flaming? The pitfalls and potentials of researching online hostility”. Ethics and Information Technology, 17(1), 65-87.
Jendryke, M., & McClure, S. C. (2019). “Mapping crime–Hate crimes and hate groups in the USA : A spatial analysis with gridded data”. Applied geography, 111. 102-172.
Jubany, O., & Roiha, M. (2016). Backgrounds, experiences and responses to online hate speech : a comparative cross-country analysis. Online Report.
Keipi, T., Näsi, M., Oksanen, A., & Räsänen, P. (2016). Online hate and harmful content: Cross-national perspectives. Taylor & Francis.
Khoo, J. (2017). “Code words in political discourse”. Philosophical Topics, 45(2), 33-64.
KhosraviNik, M. (2017). “Right-wing populism in the west: Social media discourse and echo chambers”. Insight Turkey, 19(3), 53-68.
Kothgassner, O. D., & Kafka, J. X. (2018). “Cybermobbing und Cyberstalking”. Klinische Cyberpsychologie und Cybertherapie. Wien: facultas, 154-164.
Lewandowska-Tomaszczyk, B. (2017). “Incivility and confrontation in online conflict discourses”. Lodz Papers in Pragmatics, 13(2), 347-367.
Lim, S. S. (2020). “Manufacturing Hate 4.0 : Can Media Studies Rise to the Challenge?” Television & New Media, 21(6), 602-607.
Llinares, F. M. (2016). “Taxonomía de la comunicación violenta y el discurso del odio en Internet”. IDP. Revista de Internet, Derecho y Política, (22), 82-107.
Loi n° 20-05 du 28 avril 2020 relative à la prévention et à la lutte contre la discrimination et le discours de haine.
Masud, S., Dutta, S., Makkar, S., Jain, C., Goyal, V., Das, A., & Chakraborty, T. (2021, April). Hate is the new infodemic: A topic-aware modeling of hate speech diffusion on twitter. In 2021 IEEE 37th International Conference on Data Engineering (ICDE) (pp. 504-515). IEEE.
Matamoros-Fernández, A., & Farkas, J. (2021). “Racism, hate speech, and social media : A systematic review and critique”. Television & New Media, 22(2), 205-224.
Mattia Ferraresi. (2022). Is More Speech the Way to Counter Bad Speech ?Nieman reports. Retrieved 23 March 2022 from: https://niemanreports.org/articles/is-more-speech-the-way-to-counter-bad-speech/
McNamee, L. G., Peterson, B. L., & Peña, J. (2010). “A call to educate, participate, invoke and indict : Understanding the communication of online hate groups”. Communication Monographs, 77(2), 257-280.
Meddaugh, P. M., & Kay, J. (2009). “Hate speech or “reasonable racism ?” The other in Stormfront”. Journal of Mass Media Ethics, 24(4), 251-268.
Mehandru, N., & Koenig, A. (2018). “ICTS, social media, & the future of human rights”. Duke L. & Tech. Rev., 17, 129.
Mills, C. E., Freilich, J. D., Chermak, S. M., Holt, T. J., & LaFree, G. (2021). “Social learning and social control in the off-and online pathways to hate crime and terrorist violence”. Studies in Conflict & Terrorism, 44(9), 701-729.
Munger, K., & Phillips, J. (2019). A supply and demand framework for YouTube politics. Unpublished Paper. Available
Nielsen, J. S. (Ed.). (2012). Islam in Denmark: The challenge of diversity. Lexington Books.
Oksanen, A., Hawdon, J., Holkeri, E., Näsi, M., & Räsänen, P. (2014). Exposure to online hate among young social media users. In Soul of society: a focus on the lives of children & youth. Emerald Group Publishing Limited.
Olteanu, A., Castillo, C., Boy, J., & Varshney, K. (2018, June). The effect of extremist violence on hateful speech online. In Proceedings of the international AAAI conference on web and social media (Vol. 12, No. 1).
Ong, T. (2017). Twitter starts enforcing new policies on violence, abuse, and hateful conduct. The Verge, December, 18. Accessed 01.09.2022. Retrieved from : https://blog.twitter.com/en_us/topics/company/2017/safetypoliciesdec2017
Paz, M. A., Montero-Díaz, J., & Moreno-Delgado, A. (2020). Hate Speech: A Systematized Review. SAGE Open, 10(4). https://doi.org/10.1177/2158244020973022
Perfumi, S. C., Bagnoli, F., Caudek, C., & Guazzini, A. (2019). “Deindividuation effects on normative and informational social influence within computer-mediated-communication”. Computers in human behavior, 92, 230-237.
Perry, B., & Olsson, P. (2009). “Cyberhate : the globalization of hate”. Information & Communications Technology Law, 18(2), 185-199.
Peters, J. D. (2010). Courting the abyss. In Courting the Abyss. University of Chicago Press.
Peters, M. A. (2020). “Limiting the capacity for hate: Hate speech, hate groups and the philosophy of hate”. Educational Philosophy and Theory, 1-6.
Phadke, S., Lloyd, J., Hawdon, J., Samory, M., & Mitra, T. (2018, October). Framing hate with hate frames: Designing the codebook. In Companion of the 2018 ACM conference on computer supported cooperative work and social computing (pp. 201-204).
Piazza, J. A. (2020). “Politician hate speech and domestic terrorism”. International Interactions, 46(3), 431-453.
Pilkington, E., & Roberts, D. (2016). FBI and Obama confirm Omar Mateen was radicalized on the internet. The Guardian, 14.
Pollock, E. (2009). “Researching white supremacists online: methodological concerns of researching hate ‘speech’”. Internet Journal of Criminology, 1-19.
Post, J. M., McGinnis, C., & Moody, K. (2014). The changing face of terrorism in the 21st century: The communications revolution and the virtual community of hatred. Behavioral sciences & the law, 32(3), 306-334.
Post, J. M., McGinnis, C., & Moody, K. (2014). “The changing face of terrorism in the 21st century: The communications revolution and the virtual community of hatred.” Behavioral sciences & the law, 32(3), 306-334.
Post, R. C. (1990). “The constitutional concept of public discourse: outrageous opinion, democratic deliberation, and hustler magazine v. falwell.” Harvard Law Review, 601-686.
Rashmee Roshan Lall. Like Sweden, Finland has its Muslim-bashing populists. The Arab Weekly. Sunday 16/09/2018 Accessed 20/03/2022 https://thearabweekly.com/sweden-finland-has-its-muslim-bashing-populists
Rieger, D., Kümpel, A. S., Wich, M., Kiening, T., & Groh, G. (2021). “Assessing the extent and types of hate speech in fringe communities: a case study of alt-right communities on 8chan, 4chan, and Reddit”. Social Media & Society, 7(4).
Saha, K., Chandrasekharan, E., & De Choudhury, M. (2019, June). Prevalence and psychological effects of hateful speech in online college communities. In Proceedings of the 10th ACM conference on web science (pp. 255-264).
Saul, J. (2018). Dogwhistles, political manipulation, and philosophy of language. New work on speech acts. Oxford: Oxford University Press.pp. 360–383.
Schwartzman, L. H. (2002). “Hate speech, illocution, and social context: A critique of Judith Butler”. Journal of Social Philosophy, 33(3), 421-441.
Scrivens, R., Gill, P., & Conway, M. (2020). The role of the internet in facilitating violent extremism and terrorism: suggestions for progressing research. The Palgrave handbook of international cybercrime and cyberdeviance, 1417-1435.
Shepherd, T., Harvey, A., Jordan, T., Srauy, S., & Miltner, K. (2015). “Histories of hating”. Social Media & Society, 1(2). 1-10.
Soral, W., Bilewicz, M., & Winiewski, M. (2018). “Exposure to hate speech increases prejudice through desensitization”. Aggressive behavior, 44(2), 136-146.
Thurlow, C., & Bell, K. (2009). “Against technologization: Young people’s new media discourse as creative cultural practice”. Journal of Computer-Mediated Communication, 14(4), 1038-1049.
Tobin, A., Varner, M., & Angwin, J. (2017). Facebook’s uneven enforcement of hate speech rules allows vile posts to stay up. ProPublica, December, 28.
Waldron, J. (2012). The harm in hate speech. Harvard University Press.
Waltman, M. S. (2018). “The normalizing of hate speech and how communication educators should respond”. Communication Education, 67(2), 259-265.
Weinstein, J. (2017). “Hate Speech Bans, Democracy and Political Legitimacy”. Constitutional Commentary 32, 527–583.
White, I. K. (2007). “When race matters and when it doesn’t: Racial group differences in response to racial cues”. American Political Science Review, 101(2), 339-354.
Winter, A. (2019). Online hate: from the far-right to the ‘alt-right’and from the margins to the mainstream. In Online othering (pp. 39-63). Palgrave Macmillan, Cham.
(*) د. بلقاسم أمين بن عمرة: مخبر دراسات الإعلام والتواصل – Eciad – جامعة عبد الحميد بن باديس – مستغانم – الجزائر.
(*) يُنشر بإذن خاص من الكاتب.