You are currently viewing “تيم”: روبوت خادم أم قنبلة موقوتة؟ مخاطر الذكاء الاصطناعي التوليدي على مستقبلنا

“تيم”: روبوت خادم أم قنبلة موقوتة؟ مخاطر الذكاء الاصطناعي التوليدي على مستقبلنا

Spread the love

كانت أمسيتي مع فيلم “تيم”، الذي يتحدث عن استخدام الروبوت كمساعد وخادم في المنزل. يقوم هذا الروبوت بأداء معظم المهام بدلاً منك، ويحمل اسم “تيم”. الفكرة جميلة ورائعة، وتمنيت لو كان لدي روبوت يوفر لي هذه الخدمات في المنزل.

والحقيقة أن تقديم الخدمات باستخدام الأتمتة والذكاء الاصطناعي أصبح متاحًا وموجودًا، حيث يتم ربط الأجهزة إلكترونيًا بالهاتف وإصدار الأوامر صوتيًا لها.

ولكن الفكرة الأكثر روعة هي أن يتم ذلك كله من خلال روبوت يتفاعل معك كالإنسان بسهولة وتلقائية. ومن المتوقع أن تكون هذه التقنية متاحة في السنوات القادمة.

TIM

يقوم الروبوت “تيم” بكل أعمال المنزل ويذكرك بمواعيدك ويقوم بالرد على البريد وحجز المواعيد، وحتى يمكنه الرد على الهاتف من خلال تقلّيد صوتك. بالإضافة إلى ذلك، يمكنه القيام بخدمات دفع الفواتير والتسوق وغيرها.

بالطبع، لا تخلو فكرة استخدام الروبوتات كمساعدين في المنزل من السلبيات، فهناك مخاوف من أن تتطور هذه الروبوتات إلى درجة تصبح فيها قادرة على توليد المشاعر.

يعرض الفيلم هذه المخاطر ومدى تطورها، حيث نعتقد أن العاطفة هي الفرق بيننا كبشر وبين الروبوتات.

ومع ذلك، فإن الأبحاث قائمة وجارية لمعالجة هذا الموضوع ومدى إمكانية توليد المشاعر لدى الآلة، لتصبح قادرة على فهمك والتفاعل معك وتحقيق السعادة التي تسعى إليها، فهذا هو ما تم تصميمها لأجله.

وقد لا نتفق مع خيال الفيلم غير الواقعي ولكن الفكرة الرئيسية في قدرة الروبوت على فهم المشاعر هي قدرة الروبوتات على تحليل سلوكياتك وأفعالك وأنماط حياتك، بالإضافة إلى المؤشرات الحيوية الناتجة عن تفاعل جسمك مع المشاعر المتولدة من المواقف والكلمات والصور وتصرفاتك حيالها.

تتطور أحداث الفيلم لدرجة إمكانية قيام الروبوت (تيم) بالكذب والتحايل، والجريمة، وطمس الأدلة. ويتمكن الروبوت بفضل قدراته العالية من تحليل البيانات الضخمة والوصول إلى حلول قد لا تخطر على بالك.

كل هذا يندرج ضمن ما يُعرف بـ “الذكاء الاصطناعي التوليدي”، هذا النوع من الذكاء يتم فيه تدريب النماذج التوليدية على مجموعات من البيانات الضخمة من المحتوى البشري، مما يمكّنها من اكتساب القدرة على تعلم الأنماط وإنشاء محتوى جديد يشبه إلى حد كبير البيانات التي تم تدريبها عليها، مثل الصور والموسيقى والأصوات والنصوص والرموز البرمجية.

تظهر هنا قدرة الروبوت على محاكاة شخصيتك وشخصيات أخرى، وأداء دورك في مواقف مختلفة، قد لا ترغب في التورط فيها. يُمكن للروبوت أن يضع صورتك في فيديو مُسيء (deepfake) أو يقلد صوتك لإرسال رسالة صوتية تضليلية لتوريطك في مشكلة، دون معرفتك بمتى وأين تم إرسالها، وهذا ينطوي على الكثير من المخاطر.

الخلاصة

خلاصة القول، يجب أن ندرك أننا نواجه مستقبلاً يشهد ظاهرة جميلة ومريحة تشعرنا بالرفاه، ولكن الخطر الدفين يكمن في باطنها، عندما تكون كل مفاتيح حياتك وأسرارك في يد الذكاء الاصطناعي التوليدي.

  يكمن الخطر بالتحديد في الاستخدام السلبي المحتمل للذكاء الاصطناعي التوليدي، سواءً في إنشاء محتوى مضلل أو استغلاله لأغراض ضارة، مما يثير الكثير من المخاوف بالغة الخطورة.

Sana Omar

محاضرة مستقلة في إدارة الأعمال ومدربة دولية معتمدة من مركز تنمية أعضاء هيئة التدريس جامعة القاهرة – جامعة ميزوري الأمريكية، ومقيمة معتمدة في تقييم الإبداع الكامن من المركز الدولي للتربية الإبتكارية ICIE – ألمانيا.

اترك رد