نظرًا لاكتساب تطبيقات الذكاء الاصطناعي (AI) مثل ChatGPT و LensaAI شعبية كبيرة، بدأت المخاوف الأخلاقية والمتعلقة بالخصوصية في الظهور بسبب استخدامها.
قالت بريانا براونيل، الرئيس التنفيذي ومؤسس شركة استشارات الذكاء الاصطناعي Pure Strategies لـ Global News: “بدأ الناس يدركون أنهم تداولوا كثيرًا من الأمور مقابل بعض هذه الخدمات”.
قالت براونيل: “بدأنا نرى الناس يتراجعون ويقولون ربما لم تكن هذه صفقة أدركت أنني كنت أقوم بها “.
ويأتي مع ذلك “العديد من الأسئلة المثيرة للاهتمام المحيطة بالذكاء الاصطناعي في الوقت الحالي.”
وفقًا لبراونيل، فإن الخصوصية هي أحد المخاوف، التي كانت تمثل مشكلة في الجزء الأكبر من عقد من الزمان.
وتضيف: “كانت هناك محادثة طويلة الأمد حول الخصوصية من حيث صلتها بتدريب نماذج التعلم الآلي واستخدام البيانات لإنشاء بعض هذه النماذج”.
ومع ذلك، على عكس عقد مضى، فإن المستخدمين الآن “يعيدون التفكير” في البيانات التي ينتجونها، كما قالت براونيل.
وقالت: “يرجع جزء من ذلك إلى أننا ننتج فقط الكثير من البيانات والجزء الآخر هو أن هذه البيانات تزداد طابعًا شخصيًا”.
ومع كون هذه البيانات غير منظمة إلى حد كبير، فإن شركات الذكاء الاصطناعي تسير على خط رفيع عندما يتعلق الأمر بانتهاك خصوصية المستهلكين.
من ناحية أخرى، كانت هناك دعاوى قضائية ضد الشركات لاستخدام أنظمة التعرف على الوجه في الصور التي تم كشطها علنًا. وفي الوقت نفسه، أفلت آخرون من التخلص من البيانات دون عقاب.
على سبيل المثا ، ألغت شركة Clearview AI الأمريكية المليارات من صور الوجوه من وسائل التواصل الاجتماعي ومواقع الويب الأخرى دون موافقة الأفراد، ثم أنشأت خدمة مطابقة الوجه التي باعتها إلى الشرطة الفيدرالية الأسترالية وغيرها من هيئات إنفاذ القانون حول العالم.
في عام 2021، وجد مفوض المعلومات والخصوصية الأسترالي أن كلاً من Clearview AI و AFP قد انتهكوا قانون الخصوصية الأسترالي.
قامت العديد من أكبر شركات التكنولوجيا في العالم – بما في ذلك Meta و Amazon و Microsoft – بتقليل أو إيقاف خدماتها المتعلقة بالتعرف على الوجه. وقد أشاروا إلى مخاوف بشأن سلامة المستهلك والافتقار إلى التنظيم الفعال.
“في الوقت الحالي، لا نعرف كيف سيتم تسوية كل شيء. تشق دعاوى قضائية جديدة طريقها من خلال الأنظمة القانونية في جميع أنحاء العالم. وتضيف براونيل بإن الأمر يبدو شديد الانفعال حول الكيفية التي ستنتهي بها كل هذه الأشياء.
من المعروف أيضًا أن الذكاء الاصطناعي ينشر معلومات مضللة. مثل العديد من الحالات الأخرى، كان هذا صحيحًا بالنسبة لتقنية Meta’s Galactica.
في تشرين الثاني (نوفمبر) من العام الماضي، أعلنت Meta عن برنامج ذكاء اصطناعي جديد للغة كبيرة الحجم يُدعى Galactica يمكنه “تخزين المعرفة العلمية والجمع بينها وتفسيرها”.
تم إطلاق البرنامج مع عرض توضيحي عام عبر الإنترنت، ولم يستمر البرنامج إلا لمدة ثلاثة أيام قبل أن يتم تعطيله بعد أن لاحظ المستخدمون أن الردود التي أنشأها Galactica غير صحيحة أو متحيزة.
قالت براونيل: “كان الأمر في الأساس مجرد اختلاق معلومات”. “النظام كان يعتبر خطيرا لأنه يأخذ خطأ أو خطأين فقط. الناس لا يتحققون، ومن ثم يبقى هناك إلى الأبد.
“هناك العديد من الأمثلة على الأخطاء المتتالية بشكل أساسي.”
يمكن أن تساعد التطورات السريعة في الذكاء الاصطناعي أيضًا في ازدهار المعلومات المضللة هذا العام، وفقًا لتقرير Top Risk لعام 2023، وهو تقرير سنوي من محللي المخاطر الجيوسياسية في الولايات المتحدة داخل مجموعة أوراسيا.
على الرغم من أن تقنيات الذكاء الاصطناعي قد تقول أن شيئًا ما صحيح عن طريق “الاقتناع”، إلا أنه بالتأكيد لا يعني ذلك، وفقًا لبراونيل.
يعد انتشار خطاب الكراهية مصدر قلق أيضًا فيما يتعلق بتقنيات الذكاء الاصطناعي. يمكن أن تنشأ المشكلة من خلال تقنيات مختلفة، مثل سابقتها ChatGPT.
غالبًا ما تكون المشكلة متجذرة في فرق الذكاء الاصطناعي التي تنشئ هذه التطبيقات وتحيزاتها الداخلية، وفقًا لهدى إدريس، المؤسس والرئيس التنفيذي لشركة Dot Health، متتبع البيانات الصحية.
احجز جلسة مع مستشار الهجرة إلى كندا الآن