قد لا نعرف أبدًا ما إذا كان الذكاء الاصطناعي واعيًا أم لا، كما يقول فيلسوف كامبريدج


يجادل أحد فيلسوف الوعي بأنه قد لا تكون هناك طريقة موثوقة لتحديد ما إذا كان الذكاء الاصطناعي واعيًا حقًا، مما يجعل اللاأدرية هي الموقف الأكثر دفاعًا. وهو يحذر من أن عدم اليقين العميق هذا يترك مجالا لادعاءات مبالغ فيها من صناعة التكنولوجيا، الأمر الذي يمكن أن يطمس الخط الفاصل بين الفهم الحقيقي والعلامة التجارية المقنعة. الائتمان: شترستوك

مع تزايد الادعاءات حول الذكاء الاصطناعي الواعي، يجادل أحد فلاسفة كامبريدج بأننا نفتقر إلى الأدلة لمعرفة ما إذا كانت الآلات قادرة على أن تكون واعية حقا، ناهيك عن كونها ذات أهمية أخلاقية.

الفيلسوف في جامعة كامبريدج يقول إن لدينا حاليًا القليل جدًا من الأدلة الموثوقة حول ماهية الوعي للحكم على ما إذا كان أم لا الذكاء الاصطناعي لقد عبرت تلك العتبة. ويجادل بأنه بسبب هذه الفجوة، من المرجح أن تظل الطريقة التي يمكن الاعتماد عليها لاختبار الآلات للوعي بعيدة المنال في المستقبل المنظور.

مع انتقال الحديث عن الوعي الاصطناعي من الخيال العلمي إلى الجدل الأخلاقي في العالم الحقيقي، يقول الدكتور توم ماكليلاند إن “الموقف المبرر” الوحيد هو اللاأدرية: فنحن ببساطة لن نكون قادرين على معرفة ذلك، وقد يظل هذا صحيحًا لفترة طويلة جدًا، إن لم يكن إلى أجل غير مسمى.

ويحذر ماكليلاند أيضًا من أن الوعي في حد ذاته لن يجعل الذكاء الاصطناعي مهمًا من الناحية الأخلاقية تلقائيًا. وبدلا من ذلك، يشير إلى نوع معين من الوعي يسمى الشعور، والذي يتضمن مشاعر إيجابية وسلبية.

قال ماكليلاند، من قسم التاريخ وفلسفة العلوم بجامعة كامبريدج: “سيشهد الوعي أن الذكاء الاصطناعي يطور الإدراك ويصبح مدركًا لذاته، ولكن لا يزال من الممكن أن تظل هذه حالة محايدة”.

وقال: “ينطوي الشعور على تجارب واعية سواء كانت جيدة أو سيئة، وهو ما يجعل الكيان قادرًا على المعاناة أو الاستمتاع. وهنا تبدأ الأخلاق”. “حتى لو قمنا عن طريق الخطأ بإنشاء ذكاء اصطناعي واعي، فمن غير المرجح أن يكون هذا هو نوع الوعي الذي نحتاج إلى القلق بشأنه.”

“على سبيل المثال، السيارات ذاتية القيادة التي تختبر الطريق أمامها ستكون صفقة ضخمة. ولكن من الناحية الأخلاقية، لا يهم. إذا بدأت في الحصول على استجابة عاطفية لوجهاتها، فهذا شيء آخر.”

ادعاءات الآلات الواعية

تنفق الشركات الكبرى مبالغ كبيرة سعياً وراء الذكاء الاصطناعي العام: أنظمة مصممة للتفكير والاستدلال بطرق شبيهة بالبشر. يقترح البعض أن الذكاء الاصطناعي الواعي قد يصل قريبًا، وهناك مناقشات جارية بالفعل بين الباحثين والحكومات حول كيفية تنظيم وعي الذكاء الاصطناعي.

يرى ماكليلاند أن المشكلة أكثر أساسية: فنحن ما زلنا لا نعرف ما الذي يسبب الوعي أو يفسره في المقام الأول، مما يعني أننا لا نملك أساسًا متينًا لاختبار ما إذا كان الذكاء الاصطناعي يمتلكه أم لا.

“إذا صنعنا ذكاءً اصطناعيًا واعيًا أو واعيًا عن طريق الخطأ، فيجب أن نكون حريصين على تجنب الأضرار. لكن التعامل مع ما هو محمصة فعليًا على أنه واعي عندما تكون هناك كائنات واعية فعلية نلحق الضرر بها على نطاق أسطوري، يبدو أيضًا خطأً كبيرًا”.

يقول ماكليلاند: في المناقشات الدائرة حول الوعي الاصطناعي، هناك معسكران رئيسيان. يجادل المؤيدون بأنه إذا كان نظام الذكاء الاصطناعي قادرا على تكرار “البرنامج” – البنية الوظيفية – للوعي، فإنه سيكون واعيا على الرغم من أنه يعمل على رقائق السيليكون بدلا من أنسجة المخ.

على الجانب الآخر، يرى المتشككون أن الوعي يعتمد على النوع الصحيح من العمليات البيولوجية في “ذات عضوية متجسدة”. حتى لو كان من الممكن إعادة إنشاء بنية الوعي على السيليكون، فسيكون ذلك مجرد محاكاة يتم تشغيلها دون وميض الذكاء الاصطناعي في الوعي.

وفي دراسة نشرت في المجلة العقل واللغة، يختار ماكليلاند مواقف كل جانب، موضحًا كيف يتخذ كل منهما “قفزة إيمانية” تتجاوز بكثير أي مجموعة من الأدلة الموجودة حاليًا، أو من المحتمل أن تتطور.

لماذا يفشل الحس السليم

قال ماكليلاند: “ليس لدينا تفسير عميق للوعي. ولا يوجد دليل يشير إلى أن الوعي يمكن أن ينشأ مع البنية الحسابية الصحيحة، أو أن الوعي هو في الأساس بيولوجي”.

“كما لا توجد أي علامة على وجود أدلة كافية في الأفق. وأفضل السيناريوهات هو أننا نشهد ثورة فكرية بعيدة عن أي نوع من اختبارات الوعي القابلة للتطبيق.”

قال ماكليلاند: “أعتقد أن قطتي واعية”. “هذا لا يعتمد على العلم أو الفلسفة بقدر ما يعتمد على المنطق السليم – إنه مجرد نوع من الوضوح.”

“ومع ذلك، فإن الفطرة السليمة هي نتاج تاريخ تطوري طويل لم تكن هناك أشكال حياة صناعية فيه، لذلك لا يمكن الوثوق بالفطرة السليمة عندما يتعلق الأمر بالذكاء الاصطناعي. ولكن إذا نظرنا إلى الأدلة والبيانات، فسنجد أن هذا لا ينجح أيضًا.

“إذا لم يتمكن الفطرة السليمة أو الأبحاث المتعمقة من تقديم إجابة لنا، فإن الموقف المنطقي هو اللاأدرية. لا يمكننا، وربما لا نعرف ذلك أبدًا”.

يخفف ماكليلاند من هذا الأمر بإعلان نفسه ملحدًا “متشددًا”. “إن مشكلة الوعي مشكلة هائلة حقًا. ومع ذلك، قد لا يكون التغلب عليها “.

المخاطر الأخلاقية لضجيج الذكاء الاصطناعي

ويجادل بأن الطريقة التي يتم بها الترويج للوعي الاصطناعي من خلال صناعة التكنولوجيا تشبه إلى حد كبير العلامات التجارية. “هناك خطر من أن تستغل صناعة الذكاء الاصطناعي عدم القدرة على إثبات الوعي لتقديم ادعاءات غريبة حول التكنولوجيا الخاصة بها. ويصبح ذلك جزءا من الضجيج، حتى تتمكن الشركات من بيع فكرة المستوى التالي من ذكاء الذكاء الاصطناعي”.

وفقًا لماكليلاند، فإن هذه الضجة حول الوعي الاصطناعي لها آثار أخلاقية على تخصيص موارد البحث.

وقال: “تشير مجموعة متزايدة من الأدلة إلى أن القريدس يمكن أن يكون عرضة للمعاناة، ومع ذلك فإننا نقتل حوالي نصف تريليون قريدس كل عام. إن اختبار الوعي في القريدس أمر صعب، ولكن لا شيء يضاهي اختبار الوعي في الذكاء الاصطناعي”.

أدى عمل ماكليلاند في مجال الوعي إلى قيام أفراد من الجمهور بالاتصال به بشأن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي. “لقد جعل الناس من روبوتات الدردشة الخاصة بهم يكتبون لي رسائل شخصية يناشدونني فيها أنهم واعون. وهذا يجعل المشكلة أكثر وضوحًا عندما يقتنع الناس بأن لديهم آلات واعية تستحق الحقوق التي نتجاهلها جميعًا”.

“إذا كان لديك اتصال عاطفي بشيء يعتمد على كونه واعيًا، وهو ليس كذلك، فمن المحتمل أن يكون سامًا وجوديًا. ومن المؤكد أن هذا يتفاقم بسبب الخطاب المبالغ فيه لصناعة التكنولوجيا”.

المرجع: “اللاأدرية حول الوعي الاصطناعي” بقلم توم ماكليلاند، 18 ديسمبر 2025، العقل واللغة.
دوى: 10.1111/ميلا.70010

لا تفوت أي اختراق: انضم إلى النشرة الإخبارية SciTechDaily.
تابعونا على جوجل و أخبار جوجل.



■ مصدر الخبر الأصلي

نشر لأول مرة على: yalebnan.org

تاريخ النشر: 2025-12-21 14:52:00

الكاتب: ahmadsh

تنويه من موقعنا

تم جلب هذا المحتوى بشكل آلي من المصدر:
yalebnan.org
بتاريخ: 2025-12-21 14:52:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقعنا والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.

Exit mobile version