تحت مسمّى "الذكاء العاطفي الاصطناعي"، تعمل خوارزميات متقدّمة على تحليل تعابير الوجه، نبرة الصوت، وحركات الجسد، بهدف استنتاج ما يشعر به الإنسان: هل هو
تحت مسمّى “الذكاء العاطفي الاصطناعي“، تعمل خوارزميات متقدّمة على تحليل تعابير الوجه، نبرة الصوت، وحركات الجسد، بهدف استنتاج ما يشعر به الإنسان: هل هو خائف؟ غاضب؟ متوتّر؟ كاذب؟ أو”مريب”؟
هذه التقنيات باتت تستخدم في مقابلات العمل، في التعليم عن بُعد، في التسويق، وفي سياقات متعددة. وتُقدّم على أنّها أدوات “موضوعية” تتجاوز التحيز البشري. فهل يمكن اختزال المشاعر الإنسانية إلى معادلات؟ وهل ما تقرأه هذه الخوارزميات هو ما نشعر به فعلًا؟
أولًا: ما الذي تعنيه “قراءة المشاعر” تقنيًا؟
تعتمد خوارزميات قراءة المشاعر على افتراض أساسيّ أنّ المشاعر الإنسانية يمكن رصدها من الخارج، من خلال مؤشرات جسدية قابلة للقياس. تقوم هذه الأنظمة بجمع كمّ هائل من الصور أو المقاطع الصوتية المصنّفة مسبقًا، وتدرّب شبكات عصبية على الربط بين تعبيرات معيّنة وحالات شعورية محدّدة: ابتسامة تعني فرحًا، عبوس يعني غضبًا، اتساع العينين يدل على خوف.
تبدو العملية تقنيّاً دقيقة ومنطقية. لكن المشكلة لا تكمن في قوة الخوارزميات، على قدر ما تكمن في الفرضية نفسها. فهذه الأنظمة لا “تفهم” المشاعر، بل تتعلّم أنماطًا إحصائية مبنية على تصنيفات بشرية مسبقة، غالبًا ما تكون مبسّطة ومختلف عليها علميًا. بعبارة أخرى، الذكاء الاصطناعي هنا لا يكتشف ما يشعر به الإنسان، بل يكرّر ما افترضه البشر مسبقاً عن المشاعر، ويضفي عليه هالة علمية وتقنية.

تقول الأخصائية النفسية زينب سلطان لموقع “كذا تك“ إنّ “الجدل حول دقّة خوارزميات قراءة المشاعر يجب أن يسبقه سؤال علمي أعمق، يتمثّل في ما إذا كان علم النفس يتفق أصلًا على تعريف موحّد للمشاعر الإنسانية”. وتشير سلطان إلى أن عددًا متزايدًا من الأبحاث الحديثة يجيب عن هذا السؤال بالنفي، إذ تُظهر الدراسات المعاصرة في علم النفس وعلم الأعصاب أن المشاعر لا تُعدّ عالمية كما صوّرتها النظريات الكلاسيكية، بل تختلف باختلاف السياقات الثقافية والاجتماعية، ولا تُعبَّر عنها دائمًا بالطريقة نفسها أو عبر تعابير وجه ثابتة.
إنّ العديد من أنظمة قراءة المشاعر المعتمدة حاليًا على الذكاء الاصطناعي لا تزال تستند إلى تصنيفات قديمة، أبرزها نظرية “المشاعر الأساسية” التي تفترض وجود عدد محدود من المشاعر ذات تعابير ثابتة، وهي نظرية تعرّضت لانتقادات علمية واسعة لتجاهلها التعقيد النفسي والسياقي للتجربة الإنسانية. وبحسب سلطان، فإن اعتماد الخوارزميات على نموذج نظري مختلف عليه “يضعها على أرضية علمية غير مستقرة، ويجعل موثوقية نتائجها موضع شكّ جوهري”.
لكن، رغم الجدل العلمي الواسع حول طبيعة المشاعر وإمكانية قياسها تقنيًا، شهد سوق ما يُعرف بـ”الذكاء العاطفي الاصطناعي” نموًا متسارعًا خلال السنوات الأخيرة. فقد سارعت شركات ناشئة ومؤسسات تكنولوجية كبرى إلى تطوير وتسويق أنظمة تدّعي قدرتها على “فهم المشاعر”، وقدّمتها بوصفها حلولًا جاهزة لمشكلات معقّدة، مثل اختيار الموظفين الأنسب، تقييم أداء الطلاب، أو تعزيز الأمن والمراقبة.
التحيّز الخوارزمي: من أخطر إشكاليات “قراءة المشاعر”
تُعدّ مسألة التحيّز الخوارزمي من أخطر الإشكاليات التي تواجه أنظمة “قراءة المشاعر”. فعلى خلاف الصورة التي يُروَّج لها بوصفها تقنيات محايدة وموضوعية، تتعلّم هذه الخوارزميات من بيانات بشرية، وتحمل في بنيتها التحيّزات الاجتماعية والثقافية نفسها التي أنتجت تلك البيانات.
وتشير دراسات أكاديمية منشورة على منصّات مثل arXiv وMDPI Applied Sciences إلى أن عددًا كبيرًا من أنظمة التعرّف إلى المشاعر جرى تدريبه على قواعد بيانات غير متوازنة، يطغى عليها تمثيل وجوه بيضاء، وذكور، وفئات عمرية محدّدة، ضمن سياقات ثقافية غربية بالدرجة الأولى. هذا الخلل البنيوي في البيانات لا يبقى مسألة تقنية مجرّدة، بل ينعكس مباشرة على أداء الخوارزميات، التي تصبح أقل دقة عند التعامل مع أصحاب البشرة الداكنة، أو الأفراد المنتمين إلى ثقافات تختلف في طرق التعبير عن المشاعر.

تكشف الدراسة المنشورة على منصّة arXiv، عن أبعاد مقلقة للتحيّز الجندري والعرقي في أنظمة التعرّف إلى المشاعر. إذ تناولت تحيّز الجنس في الخوارزميات، وخلصت إلى أن بعض الأنظمة تميل إلى تصنيف تعابير النساء بوصفها أكثر “عاطفية” أو “غير مستقرة”، في مقابل ربط تعابير معيّنة لدى الرجال بالغضب أو العدائية. ولا يتوقّف الأمر عند حدود الجندر، إذ تُظهر دراسات أخرى أن خوارزميات قراءة المشاعر قد تخلط بين حالات نفسية متقاربة، مثل الخوف والتوتّر، أو الغضب والتركيز، ولا سيما عند أشخاص يعيشون في ظروف ضغط أو قمع أو مراقبة مستمرة.
المشكلة في أن أثر هذه التصنيفات المشوشة طرق باب حياة الأفراد العملية، فعندما تُستخدم هذه الأنظمة في التوظيف، أو التقييم النفسي، أو في السياقات الأمنية، يمكن لتحيّزاتها أن تؤدي إلى إقصاء مرشّحين عن وظائف، أو تصنيف طلاب على أنهم “غير منتبهين”، أو حتى اعتبار أشخاص “مريبين” استنادًا إلى تعبير وجهي لا يحمل المعنى الذي تفترضه الآلة.
استخدامات “قراءة المشاعر” في سوق العمل
تعمل مئات الشركات حول العالم على تطوير تقنيات “فك شيفرة المشاعر”، في مسعى لتعليم الحواسيب القدرة على تحليل الانفعالات البشرية والتنبؤ بالسلوك. ويقود هذا التوجّه عمالقة التكنولوجيا في الولايات المتحدة، مثلAmazon وMicrosoft وGoogle، الذين يقدّمون أدوات تحليل مشاعر عامة، إلى جانب شركات متخصّصة أصغر حجمًا، مثل Affectiva وHireVue.

في قطاع السيارات، تبدي شركات مثل Ford وBMW وKia Motors اهتمامًا باستخدام هذه التقنيات لتقييم مستوى يقظة السائق وانتباهه أثناء القيادة. أما في مجال التسويق، فقد اختبرت شركات أبحاث مثل Millward Brown أنظمة قراءة المشاعر لقياس استجابة الجماهير لحملات إعلانية لعلامات تجارية كبرى، من بينها Coca-Cola. وفي السياق الأمني، كشفت صحيفة “فاينانشل تايمز” عن حصول أنظمة التعرّف إلى المشاعر على تمويل لاستخدامها من قبل شرطة لينكولنشاير في المملكة المتحدة بهدف تحديد الأفراد “المشبوهين”.
تتخذ هذه التقنيات بعدًا أكثر حساسية في بعض السياقات السياسية، إذ أُفيد بتركيب كاميرات تعتمد التعرّف إلى المشاعر في مدينة شينجيانغ شمال غربي الصين، وهي منطقة يُحتجز فيها ما يُقدَّر بنحو مليون شخص، غالبيتهم من مسلمي الإيغور، في معسكرات اعتقال. وعلى الرغم من اختلاف مجالات الاستخدام وتباين دوافعها، فإن القاسم المشترك بينها يتمثّل في هدف واحد: تقليص غموض السلوك البشري، وجعله قابلًا للقياس والتنبؤ.
هذا التوسّع المتسارع انعكس أيضًا على حجم السوق. فبحسب تقديرات شركة Markets and Markets، يُرجَّح أن ينمو سوق تقنيات التعرّف إلى المشاعر ليصل إلى نحو 37.1 مليار دولار في عام 2026، مقارنةً بنحو 19.5 مليار دولار عام 2020، مدفوعًا بتزايد الطلب في قطاعات متعددة، تفاقم خلال فترات الحجر المنزلي الطويلة التي فرضها انتشار جائحة كورونا.
الخصوصية… حين تصبح المشاعر بيانات
إذا كانت البيانات الشخصية التقليدية، كالاسم أو الموقع الجغرافي، تُعدّ انتهاكًا محتملًا للخصوصية، فإن بيانات المشاعر تطرح مستوى أشد خطورة من المراقبة. فهي لا تتعلّق بما يفعله الإنسان أو يتحرّك به في الفضاء العام، بل بما يشعر به في لحظة معيّنة، أي بما يُفترض أن يبقى ضمن نطاقه الداخلي الخاص.
وفي هذا السياق، كشفت تقارير صحافية أوروبية عن استخدامات تجريبية لأنظمة قراءة المشاعر في محطات قطارات وأماكن عامة، جرى تطبيقها من دون علم المارّة أو الحصول على موافقتهم الصريحة.

وإذا أخذنا البيئات التي يسودها التوتّر السياسي، أو الاحتلال، كمثال لضعف الخوارزميات وإجحافها في التصنيفات، تتضاعف مخاطر استخدام تقنيات “قراءة المشاعر”. فهذه الخوارزميات، مهما بدت متقدّمة، لا تفهم السياق الإنساني أو السياسي الذي تتحرّك داخله، هي لا تعرف سبب الخوف أو التوتّر، ولا تميّز بين قلق طبيعي ناجم عن واقع ضاغط، وسلوك يحمل نية عدائية فعلية. ومع ذلك، تُستَخدم نتائجها أحيانًا لتبرير قرارات أمنية أو إدارية ذات أثر مباشر على الأفراد.
ويحذّر عدد متزايد من الباحثين من أن توظيف ما يُعرف بالذكاء العاطفي الاصطناعي في هذه السياقات قد يفضي إلى تجريم مشاعر طبيعية، أو تحويل الخوف إلى “دليل إدانة”، أو تفسير الصمت والتردّد بوصفهما سلوكًا مريبًا. في مثل هذه الحالات، لا يبقى الخطأ في حدود الخلل التقني، بل يتحوّل إلى أداة سياسية، تُضفي طابعًا تقنيًا على قرارات قائمة أصلًا على الاشتباه والهيمنة.
الأطر القانونية والأخلاقية..
في مواجهة الانتشار السريع لتقنيات “قراءة المشاعر والذكاء العاطفي الاصطناعي”، بدأت بعض الجهات الدولية بوضع أطر قانونية تهدف إلى ضبط استخدامها قبل أن تتحول هذه التقنيات إلى قوة منفلتة تتجاوز السيطرة البشرية.

وقد كان الاتحاد الأوروبي سبّاقًا في هذا المجال، حين اعتمد في عام 2024 قانون الذكاء الاصطناعي (AI Act)، وهو أول إطار قانوني، يصنّف القانون تطبيقات الذكاء الاصطناعي وفق أربع درجات من الخطورة: منخفضة، محدودة، عالية، ومحظورة تمامًا، مع التركيز على منع أي أنظمة قد تمارس مراقبة عاطفية أو ذهنية، أو تُستخدم للتلاعب النفسي والاجتماعي بالأفراد.
كما يفرض القانون على الشركات شفافية كاملة حول طرق تدريب النماذج، ومصادر البيانات المستخدمة، وإمكانية تفسير قرارات الخوارزميات، خصوصًا في مجالات حساسة مثل التوظيف، والائتمان، والرعاية الصحية.
ولا يكتفي بالإطار النظري، بل يفرض غرامات ضخمة تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية للشركات المخالفة، في خطوة تهدف إلى ترسيخ ما يسميه الاتحاد الأوروبي “الذكاء الاصطناعي الموثوق”، القائم على القيم الإنسانية والشفافية، كمعيار أساسي لأي استخدام مستقبلي لهذه التقنيات.
مقال ذو صلة:
البصمة الرقمية.. إرث لا يختفي في عالم بلا حدود


COMMENTS