ثقافة
الصندوق الأسود: لماذا لم نفهم الذكاء الاصطناعي بعد؟
العام الماضي، قامت شركة نفيديا بإطلاق سيارتها ذاتيّة القيادة، مركبة بدون سائق. للوهلة الأولى قد تبدو كسيارة ذاتيّة القيادة كنظيراتها من إنتاج غوغل أو تسلا أو جينيرال موتورز؛ لكنّها ليست كذلك، سيارة نيفيدا التي أطلقت في مارس 2016 لم تُعطى أيّ أوامر لكيفية سيرها أو عملها من قبل مهندس أو مبرمج، إنمّا تعلّمت ذاتيّا عن طريق مشاهدة قيادة البشر اعتمادًا على خوارزمية ذكاء اصطناعي.
بالطبع إنّه لأمر مُبهر أنّ تقوم سيارة بالقيادة بهذا الشكل، لكنّ الأمر مُقلق خصوصًا أننا لا نعلم كيف تقوم هذه المركبة باتخاذ قرارتها بشكل كامل. تقوم السيارة باستقبال البيانات عن طريق المعالجات الخاصة بها ثم تنتقل هذه البيانات عبر شبكة عصبية صناعية هائلة؛ تقوم بتحليل هذه البيانات وتقوم بنقلها وتسليمها على هيئة أوامر التي ستقوم بالذهاب إلى عجلة القيادة، الكوابح، وبقية الأنظمة. ما ستراه سيكون قيادة شبيهة بقيادة سائق بشري، لكن هل تضمن ألا تصدم السيارة بعمود أو تخالف إشارات المرور؟ المعضلة تكمنّ في كون المهندسين المصممين لهذه السيارات لا يمكنهم معرفة السبب إذا حصل ذلك.
حقيقةً، لا أحد يعرف كيف تقوم الخوارزميات المُتقدّمة بفعل ما تفعله، وهنا تكمن المشكلة
– ويل نايت
آلية عمل السيارة الغامضة تشير إلى وجود مشكلة تلوح في الأفق متعلقة بالذكاء الاصطناعي. التكنولوجيا المُستخدمة لإنتاج هذه السيارات تسمى “التعلّم العميق-Deep learning”، استخدمت هذه التكنولوجيا في الكثير من المجالات وقد أحرزت نجاحًا باهرًا في التعرف على الأصوات، الصور، وكذا ترجمة اللغات. والآن يمكن استخدامها لتشخيص الأمراض، اتخاذ قرارات لتجارة بملايين الدولارات والقيام بأشياء قد تُغيّر مسار صناعات بأكملها. لكن هذا لن يحدث إلا في حال تفهّم صانعي هذه التقنية كيف تعمل لكي يثقوا بها، ولكي يستطيع المستخدم الذي سيتفيد من منتجات هذه التقنية الاعتماد عليها؛ ولهذا فإنّ سيارة نفيديا لازلت سيارة تجريبية.
سواء كان قرار استثماري، قرار طبي، أو حتى قرار عسكري، لايمكنك الاعتماد على عملية اتخاذ قرارك على صندوق أسود
– تومي جاكولا، أستاذ الـ machine learning بمعهد ماساتشوتس للتقنية.
لكن هل الأمر بتلك الصعوبة حقًا؟
حسنًا، أنت لا يمكنك حقًا إلقاء نظرة على شبكة عميقة من العصبونات وتكتشف كيف تعمل هذه الشبكة. منطق هذه الشبكة وإدراكها مُضمّن في سلوك آلاف العصبونات المُحَفْزّة، مرتبة بشكل متشابك ومتداخل في عشرات بل آلاف الطبقات. العصبونات في الطبقة الأولى كلٌ منها يقوم بتلقي مدخل، على سبيل المثال، كثافة بيكسل في أحد الصور، ثم القيام بالمعالجة قبل أنّ يُعطي أيّ إشارة جديدة كمخرج. هذه المخرجات يتم تغذيتها إلى الطبقات التالية من خلال شبكة معقدة، ثم إلى الطبقة التي تليها وهكذا حتى يتم إنتاج المُخرج النهائي. بالإضافة إلى ما يسمى بالانتشار العكسي ؛ حيث يتم تحسين الحسابات المتعلقة بكل عصبون بطريقة تجعل الشبكة تنتج المخرجات المطلوبة. الطبقات المتعددة تتيح للشبكة فهم الأشياء بمستويات متعمقة ومختلفة من التجريد. على سبيل المثال، في نظام مُصمم للتعرف على الكلاب، الطبقات الدُنيا من الشبكة ستتعرف على الحدود واللون؛ الطبقات الأعلى ستتعرف على أشياء أكثر تعقيدًا كالفرو والعيون، والطبقة العُليا سَتُعرّفه كُليّةً على أنّه “كلب”. يمكن اتباع نفس النمط – مع التحفظ – مع كيفية تعليم الآلة لنفسها بتعاملها مع المدخلات؛ الأصوات التي تصنع الكلمات في الحديث، الحروف والكلمات نفسها، الأصوات التي تعبر عن الحروف اللازمة لصياغة جملة، أو لتحريك عجلة القيادة.
تم استخدام استراتيجيات ابتكارية لبيان ما يحدث داخل تلك الأنظمة والشبكات. ففي عام 2015، قام الباحثون في غوغل بتطوير خوارزمية قائمة على التعلّم العميق للتعرف على الصور؛ فبدلًا من تحديد العناصر في الصور، تقوم بتوليد أو بتعديل هذه العناصر. ولكي يستطيعوا تحديد كيف يُمكن لهذه الخوارزمية تحديد ما إذا كان هذا العنصر بشر أم طير على سبيل المثال، قاموا بعكس عملها. الصور الناتجة التي أُنتجت عبر مشروع Deep Dream أظهرت صور غريبة، شبيهة لصور المخلوقات الفضائية المُتخيّلة عبر دمج الحيوانات والسُحب و هلوسات على هيئة معابد بوذية وسلاسل الجبال. أثبتت هذه الصور أنّ الذكاء الاصطناعي ليس غامض كُلّيّةً، بل تشف عن أنّ الخوارزميات تستخدم أجزاء مألوفة مثل منقار طائر أو ريشه، وكيف أنّ التعلّم العميق يختلف عن فهم البشر، فالعقل البشري يميل إلى تجاهل بعض الأشياء في بعض الأحيان حتى وإنّ كانت واضحة.
محاولة آخرى للفهم، لكن هذه المرّة بمساعدة علم المخ والأعصاب، حيث قام فريق تحت إشراف الأستاذ المساعد بجامعة وايومنغ جيفّ كلون، حيث وظّف وهم بصري يُعادل الذكاء الاصطناعي لاختبار هذه الشبكات العميقة. في 2015 استطاع كلون وفريقه خداع هذه الشبكات بجعلها تتصور أشياء ليست موجودة؛ لأنّ الصور تستغل الأنماط البدائية التي تبحث عنها الشبكة. نحن نحتاج إلى فهم أعمق لتفكير الذكاء الاصطناعي، لكنّ هذا لن يكون مهمّة سهلة.
يقوم الجيش الأمريكي بضخّ ملايين الدولارات في مجال الذكاء الاصطناعي خصوصًا المركبات التجريبية والطائرات المعتمدة على تكنولوجيا تعلّم الآلة Machine-learning، لتحديد الأهداف ومساعدة المُحللين على نخلّ المعلومات الواردة إليهم عن طريق هذه المركبات. هنا، أكثر من أيّ مجال الغموض الخوارزمي يجد له مكان ومتسّع، حيث صرّحت وزارة الدفاع الأمريكية أنّ عدم فهم هذه الأنظمة هو عقبة رئيسة.
نحن لم نحقّق الحلم بأكمله، حيث تقوم باجراء محادثة مع الذكاء الاصطناعي، ويكون قادر على التوضيح أو التفسير. ما زال أمامنا طريق طويل ليكون لدينا ذكاء اصطناعي واضح ومُفْسّر.
– كارلوس غوستيرن، أستاذ بجامعة واشنطن.
ولعلّ ما حدث في فيسبوك منذ أشهر قليلة خير مثال، حيث كان الهدف من إنشاء روبوتات المحادثة هذه هو أنّ تتعلم المفاوضة مع العملاء، لكنها بدلًا من التحدث بإنجليزية مفهومة قامت بتطوير لغتها الخاصة التي تتحدث فيما بينها، ولم يفهم مصممي خوارزميات هذه الروبوتات لمَ حدث ذلك.
البروفيسور كلون لديه رأي ما مُتعلّق بتفسير الذكاء الاصطناعي لنفسه، حيث علل بأنّ الكثير من التصرفات البشرية غير مفهومة ومن المستحيل محاولة توضيحها بالتفصيل، ربما الأمر كذلك بالنسبة للذكاء الاصناعي أيضًا “ قد يكون هذا جزء من الذكاء، حيث قطاع واحد منه مفهوم بينما بقية القطاعات غير مفسرة وغامضة وتوجد في اللاوعي”.
لكن إنّ كان هذا صحيح، علينا أنّ نثق في حكم الذكاء الاصطناعي في مرحلة من المراحل، إذًا يجب لهذا الحكم أنّ ينسجم مع الذكاء الاجتماعي؛ كيف أنّ المجتمعات مبنيّة على مجموعة من العادات والتقاليد، نحن نحتاج إلى برامج ذكيّة مصممة على الانسجام مع تقاليد المجتمعات واحترامها. إذا كنّا سنبني إنساليات للحروب، وآلات قادرة على الدمار الشامل، يجب أنّ تكون قادرة على اتخاذ قرارات متوافقة ومنسجمة مع أخلاقياتنا.