وقالت باشيليت، في بيان، إنه ينبغي على الدول أن تحظر علنا تطبيقات الذكاء الاصطناعي التي لا تتفق مع القانون الدولي لحقوق الإنسان.
وتشمل التطبيقات التي يجب حظرها أنظمة الحكومات "للتقييم الاجتماعي" التي تحكم على الناس بناء على سلوكهم، بالإضافة إلى أدوات معينة مبنية على الذكاء الاصطناعي تصنف الناس تبعا لمجموعات كالعرق أو النوع.
واعتبرت باشيليت أن التكنولوجيات القائمة على الذكاء الاصطناعي قد تكون "قوة من أجل الخير"، لكنها قد تحمل "آثارا سلبية أو حتى كارثية إن استخدمت دون اعتبار كاف لكيفية تأثيرها على حقوق الإنسان".
وتأتي هذه التصريحات بالتزامن مع صدور تقرير جديد للأمم المتحدة يدقق في كيفية إسراع دول وشركات لتطبيق أنظمة الذكاء الاصطناعي التي تؤثر على حياة ومعيشة الناس، دون وضع ضمانات مناسبة للحماية ومنع التمييز والأضرار الأخرى.
ولم تدع باشيليت لحظر صريح لتكنولوجيا التعرف على الوجوه، لكنها قالت إنه ينبغي على الحكومات وقف فحص سمات الناس بشكل مباشر حتى يمكنها أن تتأكد من دقة التكنولوجيا ومن أنها لن تميز بينهم وتفي بمعايير محددة لحماية الخصوصية والبيانات.
وكانت الصين من أبرز الدول التي نشرت تكنولوجيا مسح الوجوه والتعرف عليها، خاصة كجزء من المراقبة في إقليم شينجيانغ غرب البلاد، حيث يعيش الكثير من أقلية الإيغور.
وأعرب التقرير الأممي عن قلقه من الأدوات التي تحاول اكتشاف الحالات النفسية والعاطفية للناس من خلال تحليل تعبيرات وجوههم أو حركات أجسامهم، قائلا إن مثل هذه التكنولوجيا عرضة للتحيز وإساءة التفسير والفهم، فضلا عن إنها تفتقر للأساس العلمي.