الأب الروحي للذكاء الاصطناعي يحذر من احتمال تطويره لغة خاصة تتفوق على البشر

الأب الروحي للذكاء الاصطناعي يحذر من احتمال تطويره لغة خاصة تتفوق على البشر

حذّر جيفري هينتون، المعروف بلقب “عراب الذكاء الاصطناعي”، من احتمال تطور الذكاء الاصطناعي إلى مرحلة يمكن أن يبتكر فيها لغة خاصة به، ويعتبر هذا التحذير جديدًا ومثيرًا للقلق كما لو كان مستمدًا من فيلم خيال علمي، حيث ناقش هينتون خلال بودكاست “القرار الواحد” مخاطره المحتملة، محذرًا من أن لغات الذكاء الاصطناعي قد تصبح معقدة لدرجة أن مبتكريها من البشر لن يتمكنوا من فهمها.

وأوضح هينتون أن الأنظمة الحالية للذكاء الاصطناعي تعتمد على نوع من “التفكير التسلسلي” باللغة الإنجليزية، مما يسهل متابعة سلوكها، لكن الخطر يتعاظم إذا بدأت هذه الأنظمة في تطوير لغات داخلية للتواصل، مما قد يقودها إلى آفاق غير معروفة ومقلقة، فالأجهزة أثبتت مقدرتها على إنتاج أفكار غير مألوفة، وليس هناك ضمان أن تظل هذه الأفكار مستخدمة بلغة مفهومة للبشر.

تكتسب كلمات هينتون وزنًا خاصًا كونه الحائز على جائزة نوبل في الفيزياء لعام 2024، فهو الذي أسهم في تطوير الشبكات العصبية التي هي أساس نماذج التعلم العميق الحالية، ومع ذلك اعترف بأنه لم يدرك المخاطر المحدقة إلا في مراحل متأخرة من مسيرته، حيث ذكر أنه كان عليه إدراك العواقب المحتملة مبكرًا، متمنيًا لو أفكر في مسألة السلامة قبل وقت طويل.

تتمثل مخاوف هينتون الرئيسية في كيفية تعلم أنظمة الذكاء الاصطناعي، فعلى عكس البشر الذين يتشاركون المعرفة بجهد، يمكن للأدمغة الرقمية نسخ ولصق المعلومات بشكل لحظي، وشرح ذلك في حديثه مع بي بي سي نيوز، تخيل لو أن عشرة آلاف شخص تعلموا شيئًا ما في آن واحد، فهذا النموذج ينطبق على الأنظمة الحالية.

يعني هذا الذكاء الجماعي المترابط أن الذكاء الاصطناعي يمكنه توسيع نطاق تعلمه بوتيرة تفوق أي إنسان، حيث تتفوق نماذج مثل GPT-4 بالفعل في المعرفة العامة على البشر، ومع ذلك يبقى المنطق حاليًا من اختصاص البشر، لكنه، وفق هينتون، يتراجع بسرعة.

على الرغم من صراحته، يرى هينتون أن الآخرين في مجال الذكاء الاصطناعي يترددون في الحديث عن المخاطر، حيث أشار إلى أن عدة أشخاص في الشركات الكبرى يقللون من شأن المخاوف، كما سلط الضوء على ديميس هاسابيس، رئيس شركة جوجل ديب مايند، كواحد من القلائل الذين يظهرون اهتمامًا حقيقيًا في مقاربة هذه التحديات.

أما بشأن مغادرته جوجل في عام 2023، فقد أكد أنها ليست احتجاجًا، موضحًا أنه قرر المغادرة بسبب بلوغه الخامسة والسبعين وعدم قدرته على البرمجة بفعالية، لكنه اعتبر أن رحيله قد يتيح له فرصة أكبر للحديث بحرية عن المخاطر المحتملة.

مع إطلاق الحكومات لمبادرات مثل “خطة عمل الذكاء الاصطناعي” من البيت الأبيض، يعتقد هينتون أن التنظيم وحده لا يكفي، حيث يسلط الضوء على ضرورة تطوير ذكاء اصطناعي “مؤمن الخير”، وهي مهمة معقدة نظرًا لأن هذه الأنظمة قد تتطور قريبًا لتفكر بطرق تفوق قدرات الفهم البشري.