اصدارات
تكنولوجيا التعرف على الوجوه وحقوق الفلسطينيين الرقمية

2020-05-21

أعدت ورقة الموقف هذه من قبل حملة- المركز العربي لتطوير الاعلام الاجتماعي كجزء من عمل المناصرة للمركز ، الذي يتخصص في الدفاع عن الحقوق الرقمية الفلسطينية. هذه الورقة جزء من سلسلة من أوراق الموقف التي تبحث في آثار سياسات وممارسات الحكومات والشركات على الحقوق الرقمية الفلسطينية.

تكنولوجيا التعرف على الوجوه وحقوق الفلسطينيين الرقمية

 حمل الملف من هنا

تُعد المراقبة الجماعية بمثابة ممارسة أشبه بالتجسس على كافّة السكان أو جزء كبير منهم. ويُمكنها أن تنطوي على استغلال تقنيات كثيرة، بدءا من نصب كاميرات المراقبة، واعتراضات الرسائل الإلكترونية، وإجراء مختلف أنواع عمليات التنصت، وحتى اختراق الحواسيب وقرصنتها. [1] وعادة ما تقوم الدولة بالمراقبة الجماعية، ولكن تستطيع الشركات أيضا أن تُجري مثل هذه العلميات، إما لصالح حكومة ما، أو بمبادرة ذاتية ولمصلحة خاصّة. ويجب أن تُعامل أي معلومة حول شخص لا يرغب بالكشف عنها أو مشاركتها، على أنها خاصة ومحمية. وعلى سبيل المثال، يحق لأي شخص لا يريد الكشف عن أماكن تواجده، أو أي معلومات أخرى تتعلق بشكل وجهه، ألّا يشارك هذه المعلومات بموجب المادة 17 من العهد الدولي الخاص بالحقوق المدنية والسياسية. [2]  وعلى هذا النسق، فإن أي تدّخل بالحق في الخصوصية، يجب أن يتم وفقا لموجبات قانونية، وأن يكون ضروريا ومتناسبا مع الغاية من ورائه، ومصرحا به قضائيا. [3]

للأسف، إن الإطار القانوني الذي يجيز وينظم استخدام تكنولوجيا التعرف على الوجوه غير كاف، كما وتُثار تساؤلات جدية حول ما إذا كانت تقنيات المراقبة غير متكافئة ولا دقيقة بطبيعتها. وبإمكان تكنولوجيا التعرف على الوجوه أن تعرّض الناس لتمييز محتمل، وذلك لا ينبع فقط من القابلية لسوء استخدامها من قبل أجهزة الدولة بما يرتبط بمجموعات ديموغرافية معينة، سواء عن سابق إصرار أو دون قصد، بل لأن الأبحاث تُظهر أيضا، أن هذه التقنيات تسيء تحديد أفراد الأقليات العرقية والأشخاص من غير ذوي البشرة البيضاء، والنساء، بمعدلات أعلى من بقية السكان. [4] وقد يتسبب هذا الانعدام في دقة تحديد الأشخاص، إلى تعريض أفراد مجموعات سكانية معينة، لاستهداف شُرَطيّ جائر، أو لإجراءات أمنية مشدّدة، والإبقاء على بياناتهم بشكل غير متناسب. ونتيجة لذلك، يحذر خبراء الحريّات المدنية من أن هذه التكنولوجيا، والتي يمكن استخدامها لتعقب الأشخاص عن بعد دون علمهم، تملك قدرة الوصول إلى حد فرض مراقبة كليّة، وتهدد حرية الحركة والتعبير عن الرأي. [5]

في سياق المراقبة الجماعية، توجد حساسية عالية لوجوه الأفراد، ونظرا لكونها نوع شخصيّ للغاية من أنواع البيانات الشخصية، فقد أوجدت اتفاقيات مثل " النظام الأوروبيّ العام لحماية البيانات" (GDPR)، والتي تحمي صور وجوه الأحياء والموتى على حد سواء، من المعالجات والاستخدامات غير قانونية. [6] على النقيض من كلمات المرور السرية، فإن كل وجه شخص يحتوي على خصائص متفردة، وفي حين يُمكن إخفاء كلمات المرور أو تغييرها في حال اقتضى الأمر ذلك، فإن الوجه غير قابل للتغيير أو الإخفاء المستمر. [7]فإذا ما اختُرقت عينك (أي قُرصنت تفاصيلها البيومترية)،[8] فلا توجد طريقة لتغيير تفاصيلها أو تبديلها. علاوة على ذلك، يختلف وجه الشخص عن أشكال البيانات البيومترية الأخرى كبصمات الأصابع، لأنه قد يكون من المستحيل تجنب التعرض للمراقبة المبنية على تقنيات التعرف على الوجوه، عندما تُستخدم في الأماكن العامة. [9] فعلى عكس الحاجة لتحصيل بصمات الأصابع (يدويا) لامتلاك هذا النوع من البيانات، فإنه بالإمكان مراقبة الوجوه وتحليلها دون معرفة مُسبقة من أصحابها. ونظرا لكون تكنولوجيا التعرف على الوجوه قد تعمل بدون موافقة الأفراد، وأن الوجه يمكن أن يكون بمثابة علامة على الخصائص المحمية بموجب القانون الدولي، مثل الحق في حرية الممارسة الدينية، فإن ذلك يجعل هذه التكنولوجيا تطفلية للغاية، وقادرة على انتهاك حقنا بالخصوصية، وبياناتنا الشخصية المحمية، والعديد من الحقوق الأخرى، بسهولة.

لقد سلط الباحثون الضوء على الفرضيات المخيفة التي يرتكز إليها معظم الصخب الحالي حول تقنيات التعرف على الوجوه، خاصة عندما تُستخدم لتأطير المشاعر أو الصفات استنادا إلى جوانب الشخص أو حركات وجهه. وهذا يعيد لأذهاننا أسطورة "علم الفراسة" الزائفة[10]، والمحببة لدى العلماء النازيين الذين حاولوا العمل على بدعة تحسين النسل، والتي يُمكن أن تتسبب بأضرار هائلة لأمان الشخص وكرامته عندما تُستخدم لإطلاق أحكام على أمور شخصية كجنسانيته، أو ما إذا كان الشخص صادقا بما يقوله[11] عن وضعه كمهاجر. [12] كما أظهر استخدام هذه التكنولوجيا في توظيف الأشخاص، زيادة في التمييز ضد الأشخاص من ذوي الإعاقة. [13]ويحذر الخبراء من عدم وجود أساس علميّ لهذه المزاعم، ولكن هذا لم يمنع إنتاج شركات التكنولوجيا، بدون ضوابط،  بدون ضوابط لأنظمة التعرف على الوجوه. [14]  وعندما تُستخدم هذه التقنيات في مجتمعات تخضع لحكم استبدادي، فإن هذا النوع من المراقبة الجماعية يهدد حياة الصحافيين والمدافعين عن حقوق الإنسان وأي شخص لا يمتثل للقوانين الاستبدادية، وهو ما يهدد بدوره حرية الجميع. [15]

وتُعد تكنولوجيا التعرف على الوجوه بمثابة تطبيق لبرمجيات بيومترية قادرة على التعرف على الشخص أو التحقق من هويته المتفردة من خلال مقارنة الأنماط وتحليلها بناءً على ملامح وجهه. وغالبا ما يُستخدم التعرف على الوجوه لأغراض أمنية على الرغم من وجود اهتمام متزايد في استخدام هذه التقنيات في مجالات أخرى. وفي الواقع، تحظى تقنية التعرف على الوجوه باهتمام بالغ لأنها تتمتع بقدرات تؤهلها لتنفيذ مجموعة واسعة من الاستخدامات المتعلقة بإنفاذ القانون وقطاعات أخرى أيضا. وغالبا ما تُستخدم تكنولوجيا التعرف على الوجوه كآلية لفرض المراقبة الجماعية[16]  من قبل الحكومات. ولهذا، فهي تنتهك الحق في الخصوصية لأنها تتدخل بوضوح في الحياة الخاصة للأشخاص. [17] كما أنها مسيئة من حيث أنها قد تحوّل فكرة "افتراض البراءة" الأوليّة عند التعامل مع الأفراد، إلى وصمهم ضمنيا بـ"الأشخاص الذين لم تثبت إدانتهم بارتكاب جريمة بعد".[18]

وتتيح تكنولوجيا التعرف على الوجوه أيضا، مجموعة متنوعة من الانتهاكات الأخرى، والنشاطات المضرّة الأخرى. ولا يقتصر هذا على القائمة التالية، ولكنه يشملها:

تتمثل إحدى المشاكل الرئيسية التي تواجه محاولات تنظيم تكنولوجيا التعرف على الوجوه على المستوى الرقابي، بوجود فجوة متزايدة بين الوعي الجماهيري والتطور والتبني المتسارع لتطبيقات الذكاء الاصطناعي، والتي أصبحت أكثر بروزا نتيجة التزايد في إيلاء الأولوية للمسائل الأمنية على المستوى السياسي، والتراجع في احترام حقوق الإنسان في أنحاء العالم. [25]إضافة إلى ذلك، يمارس القطاع الخاص ضغوطات لحماية السرية الصناعية التي يراها أساس الابتكارية والحفاظ على قدرة المنافسة داخل السوق. وخاصة في الحالات التي يوظف فيها الذكاء الاصطناعي للتعرف على الوجوه في القطاع العام، لتجد الوكالات المختلفة أن مصالحها المتمثلة بأهدافها المؤسسية، تتضارب مع الصالح العام والشفافية والمساءلة. [26]علاوة على ذلك، يحدث تطور تكنولوجيا الذكاء الاصطناعي وتشغيلها، في سياق يشهد تسارعا ابتكاريا وسط سباق تسلح بين منافسين محليين وأجانب على حد سواء. أخيرا وليس آخرا، غالبا ما تواجه محاولات تنظيم الابتكارية على صعيد الذكاء الاصطناعي، رقابيا، معارضة تتذرع بأن عمليات إشراك العامة تُبطئ سيرورة الابتكار، مما قد يسبب عوائق تنافسية، أو هشاشة جيوسياسية في حال استُخدمت هذه التقنيات لأغراض خاصة بالأمن القومي. [27]

السياق الفلسطيني

تواصل إسرائيل منذ أعوام طويلة، توسيع احتلالها للأراضي الفلسطينية وضمها للقدس الشرقية مستعينة بتقنيات المراقبة الجماعية. وتُتاح مثل هذه السياسات والممارسات بواسطة أجهزة أمنية قمعية صُممت لسحق أي شكل من أشكال المقاومة للاحتلال وسياسة الضم الإسرائيلية،[28] وسط هندسة "واجهة زائفة لوضع طبيعي"[29]. وبموازاة ذلك، أصبحت إسرائيل رائدة عالميا في مجال تقنيات الأمن السيبراني، وموطنا لأكبر عدد شركات مراقبة مقارنة بعدد السكان، على مستوى العالم. [30] وتستضيف إسرائيل مجموعة واسعة ومتنوعة من شركات التكنولوجيا، وخاصة عمالقة التواصل الاجتماعي التي بنت معها الحكومة الإسرائيلية والقطاع التجاري الإسرائيلي، علاقات سياسية متينة، لتولّد بذلك، ممارسات وسياسات تضر بحقوق الفلسطينيين الرقمية وحقوق الإنسان عالميا. وهناك أدلة كثيرة على أن صدارة إسرائيل في صناعة المراقبة، تنبع من العلاقة الوثيقة بين الجيش الإسرائيلي والقطاع الخاص، فضلاً عن الاستثمارات التي تضخها الشركات العالمية والحكومات في هذا القطاع. [31]

في عام 2004، رأت محكمة العدل الدولية أن القانون الدولي يضع التزامات معينة ليس فقط على إسرائيل ولكن أيضا على الأطراف الثالثة. وتشمل هذه التعهدات عدم تقديم المساعدة أو العون في الحفاظ على الوضع الذي نبع من عمل غير قانوني في الأراضي الفلسطينية المحتلة، والتأكد من إنهاء أي عائق أمام ممارسة الشعب الفلسطيني لحقه في تقرير المصير. [32] وعلى سبيل المثال، عاد كل من تمويل "هوريزون 2020" (Horizon 2020)، [33]والذي يدعم المشاريع البحثية في قطاع تكنولوجيا المعلومات والمراقبة بين الاتحاد الأوروبي وإسرائيل،[34] والمساعدات الخارجية الأمريكية  العسكرية لإسرائيل، بآثار إيجابية هائلة على صعيد تطوير تقنيات المراقبة في إسرائيل، والتي طُورت واختُبرت في أحيان كثيرة على حساب حقوق الإنسان الفلسطيني. ورغم أن الأمر غير محصور بهذه الحالات، إلى أن الأمثلة على ذلك تتضمن الآتي:

إن الأثر الذي تخلفه تكنولوجيا المراقبة الإسرائيلية على حقوق الإنسان، غير قابل للإنكار. فقد ثبت أن مراقبة الأفراد، والذين عادة ما يكونون إما صحافيين أو ناشطين أو شخصيات معارضة أو نُقاد، تؤدي إلى الاعتقالات التعسفية، والتعذيب، والقتل خارج نطاق القانون. وتسيء الحكومة الإسرائيلية إدارة صادرات الشركات الإسرائيلية لتقنيات المراقبة العسكرية التي تصل إلى دول تنتهك حقوق الإنسان حول العالم[37].

ويجمع الجيش الإسرائيلي منذ أعوام طويلة، صور الفلسطينيين جهرا وسرا، باثا الرعب في نفوس الفلسطينيين ومقيدا قدرتهم على ممارسة الحق في التجمع السلمي، وتوثيق انتهاكات حقوق الإنسان. واليوم، تتيح تكنولوجيا التعرف على الوجوه، فرض مراقبة موسعة، في انتهاك إضافي لحق الفلسطينيين في الخصوصية، ومزيدا من تقويض حقهم في حرية التعبير وقدرتهم على المطالبة باحترام حقوقهم الإنسانية. وتنتهك تقنيات المراقبة الجماعية التي تعتمدها إسرائيل، بما في ذلك تكنولوجيا التعرف على الوجوه، الحق في حرية التعبير والخصوصية. إضافة إلى ذلك، تنتهك تقنيات المراقبة الجماعية أيضا، المبدأ الأساسي المتمثل بـ"افتراض البراءة".

"مبات 2000": مراقبة البلدة القديمة

ضمن مساعي الضم غير القانونية، طبقت إسرائيل سياسات متنوعة لتحقيق هدفها الديمغرافي المعلن بتحويل نسبة السكان اليهود الإسرائيليين في مدينة القدس إلى 70% مقابل 30% فقط للفلسطينيين. [38]وتمثل البلدة القديمة في القدس، صورة مصغرة ومكثفة لهذه السياسات  التي  تسعى إسرائيل  من خلالها إلى خلق بيئة قهرية لتهجير الفلسطينيين من المدينة. [39] ولهذه الغاية، أطلقت إسرائيل مشروع "مبات 2000" (Mabat 2000) في البلدة القديمة، وهو عبارة عن نظام[40] يشغل ما بين 320 و400 كاميرا مراقبة في دائرة مغلقة، قادرة على رصد 360 درجة في محيطها، لتعقب وتتبع الحركة. [41] ومنذ إطلاق هذا المشروع في العام 2000، تصاعد إدماج الشرطة الإسرائيلية للمراقبة البصرية الشاملة كجزء من استراتيجيتها في القدس، وباعتماد على برمجية تُستخدم لتنبؤ مزعوم لسلوكيات الأفراد بناء على خوارزميات. [42] ولطالما انتقد الباحثون استخدام الخوارزميات في أساليب لـ"العمل الشُرطَيّ التنبؤي"، إذ شددوا على الطبيعة الانحيازية والتمييزية لمثل هذه الاستخدامات. وتدعم أساليب الشرطة هذه، سياسة إخضاع مجموعات معيّنة، واستهدافها والتمييز ضدها. وعلى حد تعبير وزير الأمن العامل الإسرائيلي السابق، جلعاد إردان (الذي عين مؤخرا في منصب وزير التعاون الإقليمي لإسرائيل)، فإن "الخوارزمية تقودك إلى الاشتباه بشخص ما".[43]

في عام 2014، صادقت الحكومة الإسرائيلية على القرار 1775، والذي طرح استراتيجية لزيادة التركيز الأمني على القدس الشرقية والفلسطينيين داخل الخط الأخضر. [44] ولقد توسعت هذه الخطة وتعززت قوتها منذ ذلك الحين. [45] وفي عام 2015، شملت خطة دائرة الشرطة في القدس، استثمار نحو 48.9 مليون شيكل في تقوية كاميرات وتقنيات المراقبة، وشراء وتركيب المزيد منها في القدس الشرقية. [46]واعتُقل منذ ذلك الحين، أكثر من 200 فلسطيني بشكل استباقي، على جانبي الخط الأخضر، باستخدام تكنولوجيا تحليل البيانات. [47] وأعقب ذلك في عام 2017، تعهد الحكومة الإسرائيلية بتحديث نظام "مبات" بحيث يحتوي على قدرات متطورة للتعرف على الوجوه، بهدف رصد ما إذا كان الشخص يحمل سلاحا، بما يشمل الأسلحة المخفية، ولكي يقدم أيضا، ملفات شخصية كاملة عن الأفراد الذين يجوبون شوارع القدس القديمة. [48] وفي صيف العام ذاته، تظاهر الفلسطينيون ضد تركيب أجهزة الكشف عن المعادن، وكاميرات المراقبة داخل باحات المسجد الأقصى، ليجبروا الحكومة الإسرائيلية على إزالتها في نهاية المطاف. [49] وردا على ذلك، أعلنت الحكومة الإسرائيلية ضخ 100 مليون شيكل في تطوير وتعزيز نظام المراقبة البصرية الجائر أصلا، في البلدة القديمة. [50] وشمل هذا التحديث، تثبيت برمجية متطورة يُمكنها أن تزود الشرطة بقدرات إضافية في مجال التعرف على الوجوه، والقدرة على رصد ما إذا كان الشخص يحمل سلاحا، بما في ذلك الأسلحة المخفية، وتقديم ملفات شخصيّة كاملة عن الأفراد الذين يجوبون شوارع القدس القديمة، بما يشمل "المشتبه بهم من الضفة الغربية".[51]

ومع ما تثيره أفعال إسرائيل من قلق وإرباك، ربما يُمكننا فهم العامل الأهم المساهم في قدرتها على مواصلة سياساتها القمعية، عبر إجراء تمحيص في عمق ونطاق الشراكات العامة والخاصة بين إسرائيل الدولة، وبين الشركات الربحية، على صعيد وضع أنظمة المراقبة هذه في القدس الشرقية. وقد يكمن أحد الأمثلة الرئيسية على ذلك، بالتمعن بشركة "أثينا" ( Athena)، وهي شركة فرعية مملوكة بالكاملة لمجموعة "سي. مر" (C. Mer Group)، والموفرة الرئيسية لبرمجيات "مبات 2000". وأُسست الشركة على يد شبتاي شافيت [52]، وهو الرئيس الأسبق لجهاز الموساد الإسرائيلي، في عام 2003. وتبيع "أثينا" حلول تجسس متطورة لكاميرات المراقبة، والمراقبة السيبرانية، وتتباهى ببرمجية طورتها تزعم أنها تملك قدرة "التنبؤ والمنع"، وقدرة رصد "ذئب متنكر على شكل خروف"[53]. ومن أجل هذه الغاية، تقدم الشركة لزبائنها ثلاثة منتجات، "أوسكار" (OSCAR )، و"أوسكار +" (OSCAR +)، و"إس إي آي بي" (SAIP). وتنخرط هذه البرمجيات بعمليات جمع متواصلة للبيانات، والمطابقة التحليلية للمعلومات والبيانات الوصفية (كالنصوص متعددة اللغات، والصور، والفيديوهات، والمواقع الإلكترونية، ووسائل التواصل الاجتماعي، والإنترنت المظلم، وغيرها)، لتعمل بالتالي على إعداد ملفات شخصية لأفراد، وعلى "التعرف على الأشخاص محط الاهتمام"[54].

ويمكن العثور على مثال إضافيّ في أنظمة كاميرات المراقبة مغلقة الدائرة التابعة لشركة "إفرون" (Everon)، والتي تتضمن تكنولوجيا التعرف على الوجوه، ومنتشرة في مدينة القدس القديمة، وتتخذ من المستوطنة الإسرائيلية في الجامعة العبرية، مقرا لها. [55]وعبر استخدام تقنية "أوريوس 3 دي – إيه آي" (Aureus 3D-AI)، التابعة للشركة، والمخصصة للتعرف على الوجوه، يمكن لإسرائيل تحليل لقطات الفيديو والصور الثابتة وتسخير قدرة هذه التقنية على استخدام التكنولوجيا ثلاثية الأبعاد والخوارزميات المتطورة والذكاء المحوسب. [56]

"مايكروسوفت" و"أني فيجن"

في تموز/ يوليو 2018، شارك رئيس عملاق التكنولوجيا "مايكروسوفت" (Microsoft)، براد سميث، وجهات نظر الشركة المتعلقة بالحاجة إلى إرساء لوائح حكومية وإجراءات مسؤولة على مستوى الصناعة، لمعالجة تكنولوجيا التعرف على الوجوه الآخذة في التطور. ولفت سميث إلى أن تكنولوجيا التعرف على الوجوه تثير مسائل جوهرية بما يتعلق بحماية حقوق الإنسان، مثل الخصوصية، وحرية التعبير عن الرأي وغيرها، موضحا أن هذه المسائل تزيد من مسؤولية شركات التكنولوجيا التي تبتكر مثل هذه المنتجات. [57] ومن ثم، أرسى سميث في كانون الأول/ ديسمبر 2018، ما وصفه بـ"قواعد 'مايكروسوفت' لتقنيات التعرف على الوجوه"، والتي تشتمل على "الإنصاف، والشفافية، والمساءلة، وعدم التمييز، والإشعار والموافقة والمراقبة القانونية".[58] وفي عام 2019، أطلقت عدة عمالقة تكنولوجيا، بما يشمل "مايكروسوفت"، حملات علاقات عامة تبرز تفوقا أخلاقيا مُفترضا لتقنيات التعرف على الوجوه خاصتها، ردا على ضغوطات جماهيرية لضمان عدم تطوير هذه التقنيات واستخدامها  بما ينتهك حقوق الإنسان.

وبتناقض صارخ مع مبادئها التوجيهية حول تكنولوجيا التعرف على الوجوه، أعلنت ذراع رأس المال الاستثماري لـ"مايكروسوفت"، "إم 12" (M12)، انضمامها لتمويل مرحلة أوليّة مشترك مع شركات أميركية وأوروبية، يشمل الشركات "لايت سبيد فينتشر بارتنرز" (LightSpeed Venture Partners)، و"روبرت بوستش" (Robert Bosch)، و"كوالكوم فنتشرز" (Qualcomm Ventures)، بقيمة 78 مليون دولار، لشركة "أني فيجن" (AnyVision) الإسرائيلية. [59] ونظرا إلى أن "مايكروسوفت" نشرت مبادئها الستة لحوكمة استخداماتها لتكنولوجيا التعرف على الوجوه قبل اتخاذها قرار تمويل "أني فيجن"، فإن تمويلها هذا، ينتهك بشكل خاص، مبدأها السادس الذي ينص على أن: "سندافع (مايكروسوفت) عن ضمانات الحريات الديمقراطية للأفراد في سيناريوهات مراقبة لتطبيق القانون، ولن ننشر تكنولوجيا التعرف على الوجوه في السيناريوهات التي نعتقد أنها ستعرض هذه الحريات للخطر".[60]

و"أني فيجن" هي شركة إسرائيلية تتخذ من إسرائيل مقرا لها، ولكنها تملك مكاتب في الولايات المتحدة وبريطانيا وسنغافورة. وتبيع نظام برمجيات لـ"المراقبة التكتيكية المتطورة"، تحت اسم "بيتر تومورو" (Better Tomorrow)، ويعني "غد أفضل"، والذي يتيح لزبائنها التعرف على الأفراد والأغراض في بث مباشر لأي كاميرا، سواء كانت كاميرا مراقبة أو كاميرا هاتف ذكي، ومن ثم تحديد الأهداف أثناء تنقلها بين بث مباشر إلى آخر. [61]وما من شك بأن هناك تواصلا وثيقا يمكن رصده، بين "أني فيجن" والحكومة الإسرائيلية، ناهيك عن أن المسؤول السابق في الموساد، تمير باردو، يرأس المجلس الاستشاري لـ"أني فيجن"، بينما يرأس الشركة، أمير كين، وهو رئيس سابق للقسم الأمني في وزارة الدفاع. [62] وإضافة إلى أن "أني فيجن" يقودها عناصر أمنيون وعسكريون إسرائيليون سابقون، فإن الشركة حصلت على جائزة الدفاع الإسرائيلية الأولى عام 2018. [63] ورغم أنه لم يعلن عن فوزها علانية بسبب الطبيعة السرية لمشروع المراقبة خاصتها، إلا أن خمسة مصادر مطلعة، أكدت لشبكة "إن بي سي نيوز" (NBC News)، في تشرين الأول/ أكتوبر 2019، أن "أني فجين" تدعم مشروع مراقبة عسكري سري في أنحاء الضفة الغربية المحتلة. [64] وقال أحد المصادر إن المشروع لُقب بـ"جوجل عيوش"، بحيث تشير كلمة "عيوش" للأراضي الفلسطينية المحتلة، بينما يُقصد بـ"جوجل"، قدرة التكنولوجيا على البحث عن الأشخاص أينما وجدوا. [65] علاوة على ذلك، وخلافا لادعاء الشركة بأن البرمجية تُستخدم بشكل حميد أو سلمي، فإن أحد استعراضات التكنولوجيا تُظهر أن نظام التعرف على الوجوه (الخاص بالشركة) يُستخدم لتعقب المشتبه بهم في أنحاء القدس الشرقية المحتلة، كما أن الناشطين رصدوا عشرات الكاميرات "في عمق الضفة الغربية".[66]  ويعد هذا التطوير الواضح بقدرات تعقب الأفراد دون موافقتهم، بمثابة تجاهل صارخ لحقوقهم الإنسانية.  وتجدر الإشارة إلى أنه على الرغم من الانتقادات والأدلة المتزايدة، تستمر "أني فيجن" بإنكار ضلوعها في تطوير تقنية التعرف على الوجوه الخاصة بها بالتعاون مع إسرائيل، واستخدامها لغرض مراقبة الفلسطينيين في الضفة الغربية، زاعمة أنها تُستخدم في المعابر الحدودية الإسرائيلية وحواجز التفتيش فقط. [67] 

ونظرا للسجل الحافل بالتعقب لـ"أني فيجن"، يشعر الكثيرون بخيبة أمل من إقدام "مايكروسوفت" على خطة الاستثمار بمؤسسة كهذه. وتعليقا على هذا الاستثمار، قال مدير مشروع "التكنولوجيا والحرية" (Technology and Liberty Project)، في "الاتحاد الأميركي للحريات المدنية" (ACLU)، شانكار ناريان، إنه "لا يجب أن يُنظر إلى هذا الاستثمار بالذات، على أنه مفاجئة كبرى... فهناك فجوة واضحة بين الأفعال والبلاغيات في حالة معظم شركات التكنولوجيا الكبرى، وخاصة 'مايكروسوفت'".[68] وليس غريبا أن هذا الاستثمار قد أدى إلى غضب عام من قبل الناشطين والجهات الفاعلة في المجتمع المدني، والذين أشاروا إلى أدلة توضح أن "أني فيجن" تلقي ببرمجيتها للمساعدة في فرض الاحتلال العسكري الإسرائيلي. [69]  وبرغم الجهود العالمية المنسقة التي ساقتها عدة منظمات في المجتمع المدني،[70] والتي شملت تعبئة عرائض عامة، لم تتخذ شركة "مايكروسوفت" قرار التحقيق بما إذا كان استخدام تقنية التعرف على الوجوه التي طورتها "أني فيجن"، يمتثل لأخلاقياتها ومبادئها،[71] إلا في تشرين الأول/ أكتوبر 2019، وذلك في أعقاب إعداد شبكة "إن بي سي نيوز" لتقرير استقصائي تناول القضية. [72]

وفي أواخر عام 2019، وبعد أن تعاملت "مايكروسوفت" مع الاتهامات بجدية، استعانت الشركة بإريك هولدر وفريقه من شركة "كوفينغتون آند برلينغ" (Covington & Burling) العالمية للمحاماة، لإجراء تدقيق في شركة "أني فيجن" حول تقنية التعرف على الوجوه، لتحديد ما إذا كانت تمتثل لمبادئ "مايكروسوفت" الأخلاقية حول الطرق المسموحة لاستخدامات تقنيات المراقبة البيومترية. [73] وفي تلك الفترة، صرح متحدث باسم "مايكروسوفت" أنه "إذا ما وجدنا أي انتهاك لمبادئنا، فسننهي علاقتنا فورا".[74]  وردا على التدقيق، قالت "أني فيجن" ببيان: "لقد فُحصت جميع منشآتنا وأُكدت امتثالها ليس فقط وفقًا للمبادئ الأخلاقية لـ'مايكروسوفت'، ولكن أيضًا لسيرورة الموافقة الداخلية الصارمة الخاصة بنا".[75]

وفي آذار/ مارس 2020، أصدرت "مايكروسوفت" و"أني فيجن" بيانا مشتركا أعلنتا فيه: "بعد دراسة متأنية، اتفقت كل من 'مايكروسوفت' و'أني فيجن' على أنه من مصلحة الشركتين أن تقوم 'مايكروسوفت' بسحب حصتها في 'أني فيجن'".[76] وتجدر الإشارة إلى أن نتائج التدقيق لم تجد أدلة تدعم الاتهامات بأن "أني فيجن" تشغل برنامج مراقبة جماعية في الضفة الغربية، وتوصلت لاستنتاج مفاده أن الشركة لم تنتهك مبادئ تقنيات التعرف على الوجوه. ورغم التبعات الإيجابية للتدقيق، يشير كثيرون إلى حقيقة أن معظم معلومات المشروع المتعلقة بعمل "أني فيجن"، صُنفت على أنها مرتبطة بالأمن القومي الإسرائيلي، ولذا لم يكن متاحا لتدقيق هولدر وفريقه. ولكن "أني فيجن" أقرت بأن تقنياتها استُخدمت في الحواجز الحدودية بين إسرائيل والضفة الغربية. [77] ومع هذا، قالت "مايكروسوفت" إنها قررت الانسحاب الكامل من الاستثمار في الشركات الناشئة المختصة بتطوير تقنيات التعرف على الوجوه، نتيجة للتحقيق.

وقالت "مايكروسوفت" و"أني فيجن" في بيانهما المشترك أيضا، والذي نُشر على موقع "إم 12" الإلكتروني: "بالنسبة لـ'مايكروسوفت'، لقد عززت عملية التدقيق التحديات التي تواجهها كإحدى المستثمرين القلائل في شركة تبيع تكنولوجيا حساسة، إذ لا تسمح مثل هذه الاستثمارات عادة، بمستوى الإشراف أو التحكم الذي تمارسه 'مايكروسوفت' على استخدامات تقنياتها".[78] ولكن هذا لا يتطرق إلى التطوير الداخلي لبرامج التعرف على الوجوه في "مايكروسوفت".

توصيات

إسرائيل

  1. يجب على إسرائيل أن تفي بالتزاماتها بموجب القانون الدولي الإنساني والتزامها بحماية حقوق الإنسان على النحو المحدد في الإعلان العالمي لحقوق الإنسان. يجب على إسرائيل إزالة جميع الكاميرات من القدس الشرقية والضفة الغربية وغزة.

  2. يجب على إسرائيل التوقف عن جمع، أو تخزين، أو نقل أي بيانات خاصة بالفلسطينيين، وأن تحترم الحق في الخصوصية كما منصوص عليه في المادة 17 من العهد الدولي الخاص بالحقوق المدنية والسياسية.

  3. لا يجوز تعريض أي أحد لتدخل تعسفي أو غير قانوني في خصوصيته أو أسرته أو مسكنه أو مراسلاته، وألّا يتم تعريضه لهجمات غير مشروعة على شرفه وسمعته.

  4. ولكل شخص الحق في حماية قانونية من مثل هذا التدخل أو الاعتداءات".

  5. يجب على إسرائيل أن تمتثل لتوصيات المقرر الخاص للأمم المتحدة المعني بحرية التعبير والرأي والتوقف فورا عن تصدير جميع تقنيات المراقبة إلى أن تُطبق الضمانات واللوائح الدولية.

  6. يجب على إسرائيل أن تجري عمليات تدقيق حول مدى التزام شركات تكنولوجيا المراقبة بحقوق الإنسان، وأن تضمن أن تكنولوجيتها لا تنتهك حقوق الإنسان".

  7. يجب على إسرائيل أن تلغي تراخيص التصدير لأي شركات يُعرف عنها أنها تنتهك حقوق الإنسان.

  8. يجب على إسرائيل أن تزيد شفافيتها حول العلاقات بين الشركات العسكرية وشركات التكنولوجيا، لا سيما بما يتعلق بكيفية استخدام تقنياتها بشكل غير قانوني في الأراضي المحتلة أو في استهداف الفلسطينيين.

  9. يجب على إسرائيل أن تسنّ القوانين لحماية الخصوصية وحقوق الإنسان من سوء استخدام تكنولوجيا المراقبة هذه، وهذا يحتاج أيضا إلى أن يكون مدعوما بالمحاكم ولا يمكن استخدام التشديد على الأمن لتبرير مثل هذه الانتهاكات الجسيمة لحقوق الإنسان.

دول الطرف الثالث

يجب على الدول المختلفة اتخاذ إجراءات عينية لضمان الحماية القانونية من مثل هذا التدخل حيثما وجد وفقًا للمادة 17 (الحق في الخصوصية) من العهد الدولي الخاص بالحقوق المدنية والسياسية.

  1. يجب على الدولة التي تشتري تقنيات المراقبة أن تتخذ إجراءات لضمان استخدامها بما يتماشى مع القانون الدولي لحقوق الإنسان. وهذا يشمل تعزيز القوانين الوطنية التي تحد من المراقبة، وإنشاء آليات عامة للموافقة على تقنيات المراقبة والإشراف عليها، وضمان منح ضحايا الانتهاكات أدوات قانونية محلية للتعويض.

  2. يجب على الدولة التي تصدر التراخيص لتصدير تقنيات المراقبة أن تطلب إسهامات عامة، وأن تجري مشاورات وأن تضمن الشفافية في الترخيص. ويجب على الدولة التي لم تفعل ذلك بعد أن تنضم إلى اتفاقية "واسينار" (Wassenaar Arrangement)، والتي بدورها يجب أن ترسي إطارا لمراجعة حقوقية للشركات لضمان امتثالها للمبادئ التوجيهية للأمم المتحدة.

  3. يجب أن تطالب الدولة بأنه عندما توفر شركة ما، تقنيات أو معدات مراقبة جماعية لدول، دون ضمانات كافية، أو في حالة استخدام المعلومات بطريقة أخرى تنتهك حقوق الإنسان، فإن هذه الشركة تخاطر بالتواطؤ في انتهاكات حقوق الإنسان أو المشاركة فيها.

  4. يجب على الدول ألا تستخدم تدابير المراقبة التي تتدخل بشكل تعسفي أو غير قانوني في خصوصية الفرد أو أسرته أو منزله أو مراسلاته لأن هذا يعد انتهاكًا للمادة 17 (الحق في الخصوصية) من العهد الدولي الخاص بالحقوق المدنية والسياسية. [79]

يجب تطبيق مبادئ شركة التكنولوجيا على استخدام/ دعم تطوير تكنولوجيا المراقبة الجماعية. لذا يوصى بأن يتم اعتبار حالة "مايكروسوفت" كمثال جيد على وضع المعايير ومساءلة الشركاء تجاه هذه المبادئ. ومع ذلك، من المهم إدراك أن النتيجة التي أفضت إليها قضية "أني فيجن"، ارتبطت بشكل مباشر بعمل ناشطي الحقوق الرقمية والمدافعين عن حقوق الإنسان والصحافيين الذين يمارسون الضغط.

1. تحتاج شركات التكنولوجيا إلى دعم تطوير مبادرات التنظيم المشترك التي تضع معايير قائمة على الحقوق لتقنيات المراقبة وتنفذ هذه المعايير من خلال عمليات المراجعة المستقلة ومبادرات التعلم وسن السياسات.

2. يجب أن يضمن قياس احتياجات المراقبة والإشراف العناية الواجبة بحقوق الإنسان. ويجب تحديد المخرجات التي قد تنطوي على أضرار محتملة للحقوق واتخاذ إجراءات فعالة لمنع وإدارة الأضرار بالإضافة إلى تتبع الاستجابات.

3. يجب أن تتضمن التكنولوجيا الشفافية وقابلية التفسير الواضح، وأن تشرح للمستخدمين الطوعيين كيفية استخدام التكنولوجيا بطريقة واضحة توفر معلومات مفيدة حول كيفية عمل الذكاء الاصطناعي وكيف يتم جمع بياناتهم وتخزينها وحمايتها.

4. هناك حاجة لوجود آليات للمساءلة الداخلية، وينبغي على الشركات ضمان وصول الأفراد إلى سبل انتصاف وتعويض ذات معنى.

لا بد أن يستمر ناشطو الحقوق الرقمية والمدافعون عن حقوق الإنسان والصحافيون، بالتنسيق وتبادل المعلومات في ما بينهم، وذلك ليس لتمييز مواضع انتهاكات حقوق الإنسان الرقمية فقط، بل بهدف زيادة الوعي الجماهيري أيضا.

1. يجب أن يدعموا الإجراءات القانونية، وأن يمارسوا الضغط على الشركات والحكومات من أجل ضمان حماية حقوق الإنسان في تطوير تكنولوجيا التعرف على الوجوه.

2. يجب أن ينخرطوا مع المنظمات الدولية (هيئات الأمم المتحدة) والمنظمات الإقليمية (الاتحاد الأوروبي، الناتو، عصبة الأمم الأفريقية، إلخ) من أجل التوصل إلى إجماع حول الإطار القانوني لحماية حقوق الإنسان المهددة بتقنيات المراقبة الجماعية والابتكارات في تكنولوجيا التعرف على الوجوه.

3. يجب أن يدعون إلى العمل الجماعي رفضا للمراقبة الجماعية غير القانونية.

4. يجب أن يعرّفوا الجمهور بحقوقهم وتمكينهم بأدوات لحماية أنفسهم.

 

 



[1] Egwuonwu, B. (2016, April 11). What Is Mass Surveillance And What Does It Have To Do With Human Rights? Retrieved from https://eachother.org.uk/explainer-mass-surveillance-human-rights/

[2] OHCHR. (n.d.).  International Covenant on Civil and Political Rights Article 17.  Retrieved from https://www.ohchr.org/en/professionalinterest/pages/ccpr.aspx

[3]  OHCHR. (2014, May). Article (19), “NECESSARY & PROPORTIONATE International (Principles on the Application of Human Rights Law to Communications Surveillance).” Retrieved from: https://www.ohchr.org/Documents/Issues/RuleOfLaw/PCVE/Article_19.pdf

[4] The Conversation. (2018, November 26). Why regulating facial recognition technology is so problematic - and necessary. Retrieved from https://theconversation.com/why-regulating-facial-recognition-technology-is-so-problematic-and-necessary-107284

[5] Singer, N., & C., Metz. (2019, March 19). Many Facial-Recognition Systems Are Biased, Says U.S. Study. Retrieved from https://www.nytimes.com/2019/12/19/technology/facial-recognition-bias.html

[6] Jakubowska, E. (2019, December 4). European Digital Rights. Facial recognition and fundamental rights 101. Retrieved from: https://edri.org/facial-recognition-and-fundamental-rights-101/

[7] Ibid

[8] Chaos Computer Clubs breaks the iris recognition system of the Samsung Galaxy S8. (2017, May 22). Retrieved from https://www.ccc.de/en/updates/2017/iriden

[9] Jakubowska, E. (2019, December 4). Facial recognition and fundamental rights 101. Retrieved from https://edri.org/facial-recognition-and-fundamental-rights-101/

[10] Chinoy, S. (2019, July 10). The Racist History Behind Facial Recognition When will we finally learn we cannot predict people’s character from their appearance? NYTimes. Retrieved from: https://www.nytimes.com/2019/07/10/opinion/facial-recognition-race.html

[11]  European Union Agency for Fundamental Human Rights. (2019, January) Facial recognition technology: fundamental rights considerations in the context of law enforcement. Retrieved from: https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper.pdf

[12] Digitalis, H. (2018, November 21). Greece: Clarifications sought on human rights impacts of iBorderCtrl. European Digital Rights. European Digital Rights.  Retrieved from: https://edri.org/greece-clarifications-sought-on-human-rights-impacts-of-iborderctrl/

[13] Lee, A. (2019, November 26). An AI to stop hiring bias could be bad news for disabled people The technology that helps recruiters cut through the CV pile might be pushing disabled candidates out of the running. Wired. Retrieved from https://www.wired.co.uk/article/ai-hiring-bias-disabled-people

[14] Toh, A. (2019, November 18).  Rules for a New Surveillance Reality. Human Rights Watch.Retrieved from https://www.hrw.org/news/2019/11/18/rules-new-surveillance-reality

[15] Kaye, D. (2019, November 26). The surveillance industry is assisting state suppression. It must be stopped. The guardian. Retrieved from https://www.theguardian.com/commentisfree/2019/nov/26/surveillance-industry-suppression-spyware

[16] Egwuonwu, B. (2016, April 11). What Is Mass Surveillance And What Does It Have To Do With Human Rights? Retrieved from https://eachother.org.uk/explainer-mass-surveillance-human-rights/

[17] OHCHR. (n.d.) International Covenant on Civil and Political Rights Article 17. . Retrieved from https://www.ohchr.org/en/professionalinterest/pages/ccpr.aspx

[18] Hartzog, W. (2018, August 2). Facial Recognition Is the Perfect Tool for Oppression. Medium. Retrieved from https://medium.com/s/story/facial-recognition-is-the-perfect-tool-for-oppression-bc2a08f0fe66

[19] Slaughter, A.-M., & Hare, S. (2018, July 23). Our Bodies or Ourselves. Project Syndicate. Retrieved from https://www.project-syndicate.org/commentary/dangers-of-biometric-data-by-anne-marie-slaughter-and-stephanie-hare-2018-07?barrier=accesspaylog

[20] Facial recognition service becomes a weapon against Russian porn actresses. (2016, April 26). Retrieved from https://arstechnica.com/tech-policy/2016/04/facial-recognition-service-becomes-a-weapon-against-russian-porn-actresses/

[21] Wehle, K. L. (2014, November 3). Anonymity, Faceprints, and the Constitution. George Mason Law Review, Vol. 21, No. 2, Winter 2014, pp. 409-466 Retrieved from: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2394838

[22] Chen, T. F. (2018, February 18). 22 eerie photos show how China uses facial recognition to track its citizens as they travel, shop — and even use toilet paper. Retrieved from: https://www.businessinsider.com/how-china-uses-facial-recognition-technology-surveillance-2018-2

[23] Selinger, E., & Hartzog, W. (2014, May 14). Obscurity and Privacy. Routledge Companion to Philosophy of Technology (Joseph Pitt & Ashley Shew, eds., 2014 Forthcoming). Retrieved from https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2439866

[24] Zuboff, S. (2019). The Age of Surveillance Capitalism. Retrieved from https://shoshanazuboff.com/book/about/

[25] Comiter, M. (2019, August). Attacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About It. Retrieved from https://www.belfercenter.org/publication/AttackingAI

[26] Whittaker, M. et al. AI Now Report 2018. ( 2018). AI Now Institute. Retrieved from: https://ainowinstitute.org/AI_Now_2018_Report.pdf

[27] Comiter, M. (2019, August). Attacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About It. Belfer Center. Retrieved from https://www.belfercenter.org/publication/AttackingAI

[28] Who Profits. (2018, November). “Big Brother in Jerusalem’s Old City: Israel’s Militarized Surveillence System in Occupied East Jerusalem.” Retrieved from: https://www.whoprofits.org/wp-content/uploads/2018/11/surveil-final.pdf

[29] Volinz, L. (2017, Feb). “Comparative Military Urbanism: Topographies of Citizenship and Security Threats in Brussels and Jerusalem”, International Journal of Urban and Regional Research, ijurr.org.

[30] Privacy International. “The Global Surveillance Industry.” (2016, July). Retrieved from https://privacyinternational.org/sites/default/files/2017-12/global_surveillance_0.pdf

[31] Shezaf, H. and Jacobson, J. “Israeli Cyber Industry”. (2018, October) Accessed at: https://www.haaretz.com/israel-news/.premium.MAGAZINE-israel-s-cyber-spy-industry-aids-dictators-hunt-dissidents-and-gays-1.6573027

[32] International court of Justice. (2004, July). Legal Consequences of the Construction of a Wall in the Occupied Palestinian Territory, AdvisoryOpinion, para. 159 .

[33] Israel and Europe Research Innovation Directive. (2019). Retrieved from: https://www.innovationisrael.org.il/ISERD/contentpage/israel-participation-horizon-2020

[34] Stop the Wall (2011). “European funding for Israeli actors that are complicit with violations of international law must not be allowed to continue” Retrieved from: https://ec.europa.eu/research/horizon2020/pdf/contributions/post/palestinian_territory/stop_the_wall_campaign.pdf

[35] Precisely Wrong. (2009). Human Rights Watch. Retrieved from: http://www.hrw.org/en/reports/2009/06/30/precisely-wrong-0

[36] iDetecT4ALL (2010) Product descriptionhttp://www.idetect4all.com/category/produc

[37] Defense News (2013). “Israel defense industry exports under scrutiny”. UPI. Retrieved from: https://www.upi.com/Defense-News/2013/07/19/Israeli-defense-industry-exports-under-scrutiny/11581374259134/

[38] Al-Haq, Law in the Service of Man. (2019, February 13). The Surveillance Industry and Human Rights: Israel’s Marketing of the Occupation of Palestine Submission to the UN Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression. Retrieved from http://www.alhaq.org/cached_uploads/download/alhaq_files/images/stories/PDF/Submission_to_the_UN_Special_Rapporteur_on_the_Promotion_and_Protection_of_the_Right_to_Freedom_of_Opinion_and_Expression.pdf

[39] Al-Haq, Law in the Service of Man. (2019, February 13). The Surveillance Industry and Human Rights: Israel’s Marketing of the Occupation of Palestine Submission to the UN Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression. Retrieved from http://www.alhaq.org/cached_uploads/download/alhaq_files/images/stories/PDF/Submission_to_the_UN_Special_Rapporteur_on_the_Promotion_and_Protection_of_the_Right_to_Freedom_of_Opinion_and_Expression.pdf

[40]  Jerusalem’s Mabat 2000: Catching terrorists in the act, Ynetnews, 18 November 2015, https://www.ynetnews.com/articles/0,7340,L-4727621,00.html

[41]The Eyes of the Old City: ‘Mabat 2000’ Captures All, The Jerusalem Post, 18 June 2013, https://www.jpost.com/National-News/The-eyes-of-the-Old-City-Mabat-2000-captures-all-316885

[42] “Big Brother” in Jeru salem’s Old City: Israel’s Militarized Visual Surveillance System in Occupied East Jerusalem, Who Profits, November 2018, Retrieved from https://whoprofits.org/wp-content/uploads/2018/11/surveil-final.pdf

[43] Agencies, “Police Minister: Social Media Monitoring has foiled 200 terror attacks”, The Times of Israel, 12 June 2018. Retrieved from: https://www.timesofisrael.com/police-minister-social-media-monitoring-has-foiled-200-terror-attacks/

[44] Prime Minister’s Office. (2014, June). “Resolution 1775: The Plan to Increase Personal Security and Socio-Economic Development in Jerusalem for the Benefit of All its Residents” Retrieved in (Hebrew) from: https://www.gov.il/he/departments/prime_ministers_office

[45] Ministry of Public Security, “Budget Propos-al for the Year 2019.” Retrieved in (Hebrew) from: mof.gov.il.

[46] Hasson, Yaniv Jovovich and Harel, A. (2015, Jan). “The Police Plan for Jerusalem: Placing Another 1,000 Policemen and Setting Up Stations in Arab Neighbor-hoods” Retrieved in (Hebrew) from Haaretz News.

[47] Associated Press. (2018, June). “Israel claims 200 attacks predicted, prevented with data tech”, CBS News, Retrieved from: https://www.cbsnews.com/news/israel-data-algorithms-predict-terrorism-palestinians-privacy-civil-liberties/

[48] “Big Brother” in Jerusalem’s Old City: Israel’s Militarized Visual Surveillance System in Occupied East Jerusalem, Who Profits, November 2018, Retrieved from https://whoprofits.org/wp-content/uploads/2018/11/surveil-final.pdf

 

[49] Al Jazeera. (2017, July). “Israel removes metal detectors from al-Aqsa compound”, Al-Jazeera. Retrieved from: https://www.aljazeera.com/news/2017/07/israel-removing-metal-detectors-al-aqsa-compound-170724214814179.html

[50] Itamar Ekhner and Hassan Shalan, “The Cabinet decided to remove the magnetometers, praying: “We will not enter the Temple Mount” (He-brew), Yediot Ahronot, 25 July 2017

[51] Tal Shelo, “The Cabinet Decided to Remove Metal Detectors and Cameras from the Entrance to Temple Mount” (Hebrew), Walla News, 25 July 2017.

[52] Weizmann Institute of Science. (n.d.). Shabtai Shavit. Retrieved May 19, 2020, from http://www.weizmann.ac.il/conferences/InternationalBoard2016/shabtai-shavit

[53] Athena, “Oscar – Open Source Collection and Analysis Solution” Retrieved from: https://Athenaiss.com .

[54] Ibid

[55] Big Brother” in Jerusalem’s Old City: Israel’s Militarized Visual Surveillance System in Occupied East Jerusalem, Who Profits, November 2018, Retrieved from https://whoprofits.org/wp-content/uploads/2018/11/surveil-final.pdf

[56] Evron Systems Ltd., “Facial Recognition Software.” Retrieved from: www.evronsystems.co.il

[57] Smith, B. (2018, July 13). Facial recognition technology: The need for public regulation and corporate responsibility. Retrieved from: https://blogs.microsoft.com/on-the-issues/2018/07/13/facial-recognition-technology-the-need-for-public-regulation-and-corporate-responsibility/

[58] Sauer, R. (2018, December 17). Six principles to guide Microsoft's facial recognition work. Microsoft. Retrieved from https://blogs.microsoft.com/on-the-issues/2018/12/17/six-principles-to-guide-microsofts-facial-recognition-work/

[59] Brewster, T. (2019, August 1). Microsoft Slammed For Investment In Israeli Facial Recognition ‘Spying On Palestinians.’ Forbes. Retrieved from https://www.forbes.com/sites/thomasbrewster/2019/08/01/microsoft-slammed-for-investing-in-israeli-facial-recognition-spying-on-palestinians/#33e978e46cec

[60] Microsoft set to divest from Israeli facial recognition firm tracking Palestinians (2020, March 28). Middle East Eye. Retrieved from https://www.middleeasteye.net/news/microsoft-set-divest-israeli-facial-recognition-firm-tracking-palestinians

[61] Salon, O. (2019, October 28). Why did Microsoft fund an Israeli firm that surveils West Bank Palestinians?  NBC News. Retrieved from: https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116

[62] Brewster, T. (2019, August 1). Microsoft Slammed For Investment In Israeli Facial Recognition ‘Spying On Palestinians.’ Retrieved from https://www.forbes.com/sites/thomasbrewster/2019/08/01/microsoft-slammed-for-investing-in-israeli-facial-recognition-spying-on-palestinians/#33e978e46cec

[63] Kim, G. (2019, December 12). Microsoft funds facial recognition technology secretly tested on Palestinians throughout the Occupied Territories. Retrieved from https://www.alaraby.co.uk/english/Comment/2019/12/19/Microsoft-funds-facial-recognition-technology-secretly-tested-on-Palestinians

[64] Salon, O. (2019, October 28). Why did Microsoft fund an Israeli firm that surveils West Bank Palestinians?.  NBC News. Retrieved from: https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116

secretly watched West Bank Palestinians. Retrieved from https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116

[65] Salon, O. (2019, October 28). Why did Microsoft fund an Israeli firm that surveils West Bank Palestinians? NBC News. Retrieved from: https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116

[66] Ziv, A. Haaretz. This Facial Recognition Startup is Secretly Tracking Palestinians. (2019, July 15). Retrieved from https://www.haaretz.com/israel-news/business/.premium-this-israeli-face-recognition-startup-is-secretly-tracking-palestinians-1.7500359

[67] Al-Arabiya. (2019, November 16). Microsoft to probe Israeli facial recognition company accused of 'unethically' tracking Palestinians. Retrieved from: https://www.alaraby.co.uk/english/news/2019/11/16/microsoft-probes-israeli-facial-recognition-accused-of-tracking-palestinians

[68] Brewster, T. (2019, August 1). Microsoft Slammed For Investment In Israeli Facial Recognition ‘Spying On Palestinians.’ Forbes. Retrieved from: https://www.forbes.com/sites/thomasbrewster/2019/08/01/microsoft-slammed-for-investing-in-israeli-facial-recognition-spying-on-palestinians/#33e978e46cec

[69] Jewish Voice for Peace. (2019) Retrieved from: https://dropanyvision.org

[70]  Kim, G. (2019, December 12). Microsoft funds facial recognition technology secretly tested on Palestinians throughout the Occupied Territories. Al Arabiya. Retrieved from https://www.alaraby.co.uk/english/Comment/2019/12/19/Microsoft-funds-facial-recognition-technology-secretly-tested-on-Palestinians

[71] Dastin, J. (2019, November 16). Microsoft to probe work of Israeli facial recognition startup it funded. Reuters. Retrieved from: https://www.reuters.com/article/us-microsoft-AnyVision/microsoft-to-probe-work-of-israeli-facial-recognition-startup-it-funded-idUSKBN1XQ03M

[72] Solon, O. (2019, October 26). Why did Microsoft fund an Israeli firm that surveils West Bank citizens? NBC News. Retrieved from: https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116

[73] Solon, O. (2019, November 16). Microsoft hires Eric Holder to audit AnyVision overuse of facial recognition on Palestinians According to five sources, AnyVision's technology has powered a secret military surveillance project that has monitored Palestinians in the West Bank. Retrieved from https://www.nbcnews.com/tech/security/microsoft-hires-eric-holder-audit-AnyVision-over-use-facial-recognition-n1083911

[74]  Solon, O. NBC News. Why did Microsoft fund an Israeli firm that surveils West Bank citizens? (2019, October 26). Retrieved from https://www.nbcnews.com/news/all/why-did-microsoft-fund-israeli-firm-surveils-west-bank-palestinians-n1072116

[75] Ibid

[76] Joint Statement by Microsoft & AnyVision – AnyVision Audit. (2020, March 27). Retrieved from https://m12.vc/news/joint-statement-by-microsoft-AnyVision-AnyVision-audit/

[77] Microsoft Divests from AnyVision After Audit into Alleged Mass Surveillance Program. (2020, March 31). Retrieved from https://findbiometrics.com/microsoft-divests-AnyVision-following-audit-into-alleged-mass-surveillance-program-033104/

[78] Microsoft to divest AnyVision stake, end face recognition investing. (2020, March 30). IT News. Retrieved from: https://www.itnews.com.au/news/microsoft-to-divest-AnyVision-stake-end-face-recognition-investing-540033

[79] General comment No.16 on Article 17 of the ICCPR.  Retrieved from: https://www.refworld.org/docid/453883f922.html

[80] Article (19), “NECESSARY & PROPORTIONATE International (Principles on the Application of Human Rights Law to Communications Surveillance).” OHCHR,  May 2014 Retrieved from: https://www.ohchr.org/Documents/Issues/RuleOfLaw/PCVE/Article_19.pdf

[81] Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression. (2014, March). Retrieved from https://www.ohchr.org/en/issues/freedomopinion/pages/opinionindex.aspx

انضم/ي لقائمتنا البريدية

وابقى/ي على اطلاع بأحدث أنشطتنا، أخبارنا، وإصداراتنا!