AIT Newsتكنولوجيا

ما المخاوف المرتبطة باستخدام روبوتات الذكاء الاصطناعي في العمل؟

الرئيسية|محاور تقنية|نصائح تكنولوجية|ما المخاوف المرتبطة باستخدام روبوتات الذكاء الاصطناعي في العمل؟
نصائح تكنولوجية

ما المخاوف المرتبطة باستخدام روبوتات الذكاء الاصطناعي في العمل؟

تتطور روبوتات الذكاء الاصطناعي التوليدي مثل: ChatGPT و Copilot بسرعة، مما يزيد المخاوف المتعلقة بالخصوصية والأمان خاصة عند استخدام هذه الروبوتات في العمل.

من ناحية أخرى، هناك مخاوف من بعض أدوات الذكاء الاصطناعي الأخرى غير روبوتات الدردشة مثل: أداة Recall الجديدة من مايكروسوفت التي يمكنها تخزين لقطات لشاشة الحاسوب كل بضع ثوان، وقد أبدى العديد من الأشخاص مخاوفهم من أن تشكل هذه المزية خطرًا أمنيًا كبيرًا؛ إذ قدّم بعض خبراء الأمن السيبراني أدلة على سهولة اختراق الحواسيب عند تفعيل هذه المزية وسرقة أي معلومات موجودة فيها.

تتزايد المخاوف أيضًا من تطبيق روبوت ChatGPT الجديد المخصص لحواسيب ماك الذي أظهر قدرته على أخذ لقطات لشاشة الحاسوب؛ مما قد يؤدي إلى التقاط بيانات حساسة.

من ناحية أخرى، حظر مجلس النواب الأمريكي استخدام Copilot من مايكروسوفت بين الموظفين بعد أن اعتبره مكتب الأمن السيبراني خطرًا على المستخدمين بسبب احتمالية تسريب بيانات مجلس النواب إلى الخدمات السحابية المعتمدة من جهات خارجية.

بالإضافة إلى ذلك، هناك تحذيرات من أن استخدام Copilot في تطبيقات العمل Microsoft 365 قد يُعرّض البيانات الحساسة للخطر. وفي الشهر الماضي، اضطرت جوجل إلى إجراء تعديلات في مزية البحث الجديدة AI Overviews، بعد أن انتشرت لقطات شاشة من الإجابات الغريبة والمضللة التي حصل عليها بعض المستخدمين بعد طرح استفسارات في محرك البحث.

كل هذه الأمور تدل على وجود تحديات متعددة أمام اعتماد استخدام الذكاء الاصطناعي في العمل، وسنوضح فيما يلي أبرز هذه التحديات وما الخطوات التي يمكن للشركات والموظفين اتخاذها لحماية الخصوصية والأمان.

أولًا: ما التحديات المرتبطة باستخدام الذكاء الاصطناعي في العمل؟

إن أكبر التحديات التي قد يواجهها الذين يستخدمون الذكاء الاصطناعي التوليدي في العمل هو خطر الكشف عن البيانات الحساسة الخاصة بالشركات أو الأفراد؛ إذ إن معظم أنظمة الذكاء الاصطناعي التوليدي تُخزن كميات كبيرة جدًا من المعلومات لتدريب النماذج اللغوية.

من ناحية أخرى، هناك خطر استهداف أنظمة الذكاء الاصطناعي نفسها، فإذا تمكنت الجهات الخطرة من الوصول إلى النموذج اللغوي الكبير (LLM) الذي يُشغّل أدوات الذكاء الاصطناعي، يمكنه سحب البيانات الحساسة، أو إضافة مخرجات خاطئة أو مضللة، أو نشر البرامج الضارة.

ثانيًا: كيف يمكن الحفاظ على الخصوصية والأمان عند استخدام الذكاء الاصطناعي في العمل؟

يتسبب الذكاء الاصطناعي التوليدي بالعديد من المخاطر المحتملة، ولكن هناك خطوات يمكن للشركات والموظفين اتخاذها لتحسين الخصوصية والأمان ومنها: 

تجنّب إضافة أي معلومات سرية خاصة بك أو بشركتك عند كتابة مطالبة في أداة ذكاء اصطناعي متاحة للجميع مثل: ChatGPT أو Gemini، وعند صياغة مطالبة تجنب مشاركة الكثير من المعلومات الخاصة. على سبيل المثال: اكتب: “اقترح نموذجًا لتنظيم ميزانية معينة”، وليس “إن ميزانيتي هي..، اكتب اقتراحًا عن كيفية الانفاق على مشروع ..”.
إذا كنت تستخدم أدوات الذكاء الاصطناعي للبحث، فتحقق من صحة المعلومات واطلب من الروبوت تقديم مراجع وروابط لمصادر المعلومات، وإذا طلبت من أداة الذكاء الاصطناعي كتابة كود برمجي، فيجب مراجعته جيدًا قبل استخدامه.
اضبط إعدادات أداة الذكاء الاصطناعي لمنع استخدام بياناتك لتدريب نماذجها اللغوية؛ إذ توفر بعض الشركات المطورة لأدوات الذكاء الاصطناعي إعدادات يمكن للمستخدمين ضبطها لمنع استخدام بيانتهم في تدريب النماذج اللغوية، وأبرز هذه الشركات، شركة: OpenAI.

ثالثًا: ما دور شركات التكنولوجيا المطوّرة لنماذج الذكاء الاصطناعي في ضمان الحفاظ على خصوصية المستخدمين؟

تقول العديد من الشركات المطوّرة لنماذج الذكاء الاصطناعي والشركات التي تدمج الذكاء الاصطناعي التوليدي في منتجاتها إنها تفعل كل ما في وسعها لحماية خصوصية المستخدمين؛ إذ تحرص مايكروسوفت على توفير الأمان والخصوصية في مزية Recall الخاصة بها والقدرة على التحكم في هذه المزية من تطبيق الإعدادات في الحواسيب التي تتضمن هذه المزية.

أما شركة جوجل فتؤكد منحها المستخدمين طرقًا للتحكم في بياناتهم، كما تؤكد عدم استخدام المعلومات الخاصة بالمستخدمين للإعلانات، وأما OpenAI فتوفر مجموعة من الطرق التي تسمح للمستخدمين بمنع الروبوت من الاحتفاظ ببياناتهم واستخدامها لتدريب النماذج اللغوية.

Follow @aitnews
تم نسخ الرابط

تابعنا

للمزيد من التفاصيل: Read More

مقالات ذات صلة

زر الذهاب إلى الأعلى