كتبت//مرفت عبدالقادر احمد
تمضي الشرطة البريطانية قدمًا في خطوات توظيف تقنيات الذكاء
الاصطناعي لمكافحة الجريمة في شوارع بريطانيا بشكل استباقي. بحسب ما
نشرته “ديلي ميل” البريطانية، تستخدم الشرطة البريطانية تقنيات ذكاء
اصطناعي من بينها كاميرات التعرف على الوجه التي تراقب الوجوه أثناء التسوق
إلى جانب الخوارزميات، التي تتنبأ بالجرائم قبل حدوثها، بل إن هناك المزيد
من الأدوات، التي تحاكي الروايات الخيالية، في الطريق للاستخدام الفعلي بالمستقبل.
وجوه المجرمين المطلوبين
يتم حاليًا استخدام سلسلة من
الكاميرات لتسجيل وجوه أي شخص يمر عبر منطقة محددة.
وتساعد تقنيات التعرف المباشر على الوجوه، كما يوحي الاسم،
رجال الشرطة في التعرف على الأفراد المطلوبين بين حشد كبير في الوقت
الفعلي، إذ تقارن خوارزمية وجوه أولئك الذين يسيرون أمام الكاميرا بـ “قائمة
مراقبة” للمجرمين المطلوبين ويتم إصدار تنبيه إذا اكتشف الذكاء
الاصطناعي تطابقًا.
منذ عام 2015، بدأت العديد من قوات الشرطة في جميع أنحاء المملكة المتحدة
في استخدام هذه التكنولوجيا في الأماكن العامة كجزء من حملات القمع
المستهدفة وللحفاظ على استتباب الأمن في المناطق التي تشهد أحداث مزدحمة.
وذكرت وزارة الداخلية البريطانية أن عمليات المراقبة واسعة النطاق مبررة
بنتائجها، فعلى سبيل المثال، تم التمكن من ضبط أحد المجرمين المطلوبين
وإرساله مباشرة إلى السجن بعد أن رصدته كاميرات التعرف المباشر
على الوجوه في تتويج الملك تشارلز.
حلول مبتكرة.
وقال متحدث باسم مجلس رؤساء
الشرطة الوطنية البريطانية:
:يقدم الذكاء الاصطناعي فرصًا لأفراد الأمن لاختبار أفكار جديدة ومبدعة
بما يساعد في البحث عن حلول مبتكرة للمساعدة في تعزيز الإنتاجية
وأن تكون الشرطة أكثر فعالية في معالجة الجريمة”.
أخطاء محتملة وتمييز
وفي المقابل، أثارت جماعات الحقوق المدنية مخاوف بشأن استخدام التعرف
المباشر على الوجوه، بحجة أن التكنولوجيا مفرطة في التدخل فيما
يتعلق بالخصوصية وحماية البيانات الشخصية. كما أن هناك أيضًا مخاوف
من حدوث أخطاء في تقنية التعرف على الوجه، مما يمكن أن يزيد من احتمالية
حدوث نتائج إيجابية خاطئة أو القيام باعتقالات غير ضرورية.
وبالفعل، كشفت نتائج تقرير للمختبر الفيزيائي الوطني البريطاني، نُشر في
مارس من العام الماضي، أن تكنولوجيا شرطة العاصمة البريطانية تعاني من
“اختلال كبير إحصائيًا بين التركيبة السكانية مع وجود عدد أكبر من السود
الذين لديهم نتائج إيجابية خاطئة مقارنة بالآسيويين أو البيض”.
كاميرات “عيون في السماء”
كما تشق أدوات الذكاء الاصطناعي
طريقها إلى المهام الشرطية من خلال استخدام الكاميرات التي تكتشف تلقائيًا
متى تحدث الجرائم إلى جانب التقاط مخالفات المرور وضبط مستخدمي الهواتف أثناء القيادة.
وقال متحدث باسم شرطة شبكة الطرق السريعة البريطانية إنه يتم “تعليم نظام
الذكاء الاصطناعي البحث عن وجود هاتف أو عدم ربط حزام أمان، وأي
خصائص للسائق أو السيارة ليست ذات صلة بتحديد احتمالية مخالفة مرورية”.
وأضاف المتحدث أنه من المقرر أن تستمر التجربة الحالية حتى مارس
2025 ولكن الكاميرات كانت قيد الاستخدام بالفعل من خلال تجارب
مختلفة منذ عام 2021، مشيرًا إلى أنه تم العثور على ما يقرب من 300 سائق
يستخدمون الهواتف المحمولة أو لا يرتدون أحزمة الأمان في ثلاثة أيام
فقط، بل وكجزء من تجربة مدتها 15 يومًا في عام 2022، اكتشف نظام
(ذكاء اصطناعي) أكبر قائم على المركبات 590 مخالفة لحزام الأمان
و45 مخالفة للهاتف المحمول.
بخوارزميات الذكاء الاصطناعي على الشوارع أو الطرق السريعة،
حيث تستخدم محلات السوبر ماركت والمتاجر الأخرى بشكل متزايد تقنية
التعرف على الوجه للقضاء على سرقة البضائع.
في أكتوبر من العام الماضي، أعلن وزير الشرطة كريس فيلب عن شراكة بقيمة
600 ألف جنيه إسترليني (752 ألف دولار) بين الشرطة و13 من أكبر تجار
التجزئة في المملكة المتحدة والمعروفة باسم مشروع بيغاسوس.
في إطار مشروع بيغاسوس، الذي يتكلف 725 ألف دولار في شراكة بين الشرطة
البريطانية و13 من أكبر تجار التجزئة في بريطانيا من بينها متاجر جون لويس
وتيسكو وسينسبيريز، سيمكن إرسال لقطات كاميرات المراقبة الخاصة داخل
المتاجر إلى مراكز الشرطة القريبة بشكل فوري للتحليل وتحديد هوية سارقي المتاجر.
بأثر رجعي
يُطلق على هذا النوع من التكنولوجيا التعرف على الوجه بأثر رجعي،
إذ ييتم البحث عن المشتبه بهم في قاعدة بيانات للأفراد المعروفين،
فيما يمكن أن يقلل الوقت المستغرق لتحديد هوية المشتبه به من
حوالي 14 يومًا إلى مجرد بضع دقائق.
تنبيه أمن المتاجر.
ويقوم عدد من المتاجر الكبرى حاليًا وبشكل متزايد بتثبيت أدوات مراقبة
الذكاء الاصطناعي الخاصة بها.
يتم بالفعل استخدام نظام تعرف على الوجوه لشركة فيس ووتش في متاجر
شهيرة من بينها Spar وSports Direct وBudgens وCostcutter.
تزعم شركة فيس ووتش أنها تحدد وجوه الأفراد “موضوع الاهتمام” عند
دخولهم المبنى وترسل تنبيهًا إلى صاحب المتجر. تشمل تحذيرات برنامج فيس
ووتش أصحاب السجلات الإجرامية أو الأشخاص المشتبه في ارتكابهم جريمة،
مما أثار بعض الجدل بشأن احقية شركة خاصة في تتبع البيانات الحيوية
للمواطنين والذي يمكن أن يمثل انتهاكا لحقوقهم الشخصية.
الشرطة التنبؤية
في فيلم الخيال العلمي Minority Report لعام 2002، تنظر الشرطة إلى
المستقبل للتنبؤ بالجرائم ووقفها قبل حدوثها. وبينما لا تنوي الشرطة
البريطانية البدء في ملاحقة الأشخاص لارتكاب جرائم مستقبلية، فإنها
تستخدم الذكاء الاصطناعي بطريقة مماثلة بشكل مخيف.
من خلال تقنية تسمى “الشرطة التنبؤية”، يستخدم رجال الشرطة الذكاء
الاصطناعي للتنبؤ بالمكان الذي من المرجح أن تحدث فيه جريمة وهوية
الشخص المرجح أن يرتكبها.
توظف هذه الأنظمة كميات هائلة من البيانات المتاحة للشرطة والخوارزميات
لمحاولة التنبؤ بخطر الجريمة.
تستخدم شرطة أفون وسومرست نظامًا يسمى SPSS والذي ينشئ تصورًا
تحليليًا بـ”درجة المخاطر” للأفراد بناءً على البيانات السابقة. ونظرًا لأن الأفراد
لديهم الحق في عدم الخضوع لـ “قرار آلي بحت”، فإن الداخلية البريطانية
حرصت على التأكيد على أن نظامها لا “يقيم احتمالية ارتكاب الفرد لجريمة”،
وإنما يتم استخدام النظام لتقديم المشورة بشأن الحكم النهائي الذي
يتخذه الإنسان. وتبين من خلال التجارب أن نظام SPSS قادر على “حساب
مخاطر ارتكاب جريمة سرقة في غضون 12 شهرًا”.
وتزعم شرطة أفون وسومرست أن النظام قادرعلى التنبؤ بارتكاب شخص ما
جريمة سرقة عادية أو خطيرة أو معاودة ارتكاب الجريمة أو حتى الوقوع
ضحية للعنف المنزلي.
تعد ملاعب كرة القد أحد المجالات التي أصبحت فيها الشرطة بالذكاء
الاصطناعي شائعة بشكل متزايد، حيث تستخدم الشرطة البريطانية تقنية
التعرف على الوجه بالذكاء الاصطناعي في بعض أكبر الأحداث لرصد وجوه
المشجعين، الذين ربما يكونون مطلوبين بسبب سلوك معادٍ للمجتمع أو جرائم أخرى.
ففي عام 2023، تم استخدام تقنية التعرف على الوجه في مباراة بالدوري
الإنجليزي الممتاز لأول مرة على الإطلاق لمسح وجوه الآلاف من المشجعين في
طريقهم لمشاهدة مباراة أرسنال ضد توتنهام. وتم القبض على ثلاثة أشخاص،
من بينهم رجل مطلوب في انتظار محاكمته بتهمة ارتكاب جرائم جنسية،
وآخر متهم بانتهاك أمر حظر كرة القدم.
ويبدو من خلال النتائج أن تقنيات التعرف على الوجه في الملاعب من
المرجح أن تصبح أكثر شيوعًا مستقبلًا.