هل يملك الذكاء الصنعي جانب مظلم

نعم ، للذكاء الاصطناعي جانب مظلم ، فهل سنتمكن من اكتشاف التطبيقات التي تقبل التعامل والتفاعل معنا بشفافية ووضوح ، أم أن الذكاء الاصطناعي سيبقى مثل الصندوق الأسود ولا نعرف شيئًا عما يدور بداخله ، أو الطريقة التي تشرح بها القرارات التي يتخذها.

هذا ما تعتمد عليه علاقتنا بالذكاء الاصطناعي ومستقبله ، لذا سيتم حل هذه العقدة.

الذكاء الاصطناعي والتعلم العميق

في البداية ، سمع الكثير منا عن التعلم العميق ، أو ما يسمى بالتعلم الهرمي أو التعلم العميق التنظيم ، في مجال البحث أو البحث المهتم بالتعلم الآلي. في الآونة الأخيرة ، تطورت تقنيات التعلم العميق ، والتي أثرت بشكل كبير على طريقة معالجة العلاج. للإشارة والبيانات بشكل حديث وكلاسيكي ضمن نظام ما يسمى بمفاهيم التعلم الآلي الأساسية والذكاء الاصطناعي ، وللتعلم العميق عدة تعريفات من أهمها:

إنه مجال حديث ضمن البحث حيث يقترب التعلم الآلي أحادي الاتجاه من نهج الذكاء الاصطناعي ، وهو يتعلق بالتعلم الآلي بمستويات متعددة من التجريد والتمثيل ، مما يساعد على إعطاء فهم أعمق للعديد من البيانات مثل الفيديو والصور والنصوص المعالجة داخل أجهزة الكمبيوتر.

في عام 2015 ، استخدمت مجموعة تقنية التعلم العميق لتنظيم سجلات حوالي 700000 مريض في مستشفى Mount Sinai في مدينة نيويورك ، بهدف تطوير برنامج ذكي يسمى Deep Patient. يهدف هذا البرنامج إلى التعلم من بيانات وسجلات المريض مما يمكّنه من التنبؤ بما يحدث من مشاكل مرضية لمريض جديد من خلال سجلات مرضه التي تعرض عليه ، وقد حقق هذا البرنامج نجاحات لم تكن تعتبر أكثر مما كان عليه متوقعا منه ، حيث استطاع أن ينجح في التنبؤ بالمرضى الذين سيزدادون سوءا ، مثل المرضى المعرضين لخطر الإصابة بسرطان الكبد

كما استطاع تقديم أكثر من نتائج مبهرة في التنبؤ بالاضطرابات النفسية مثل الفصام ، الأمر الذي جعل الباحث (جويل دودلي) متفاجئًا ، بسبب صعوبة التنبؤ بهذا المرض حتى من قبل الأطباء المتخصصين.

إلا أن هذا البرنامج لا يقدم أي شرح للطريقة التي أدت به إلى هذه النتائج المبهرة ، الأمر الذي جعل الباحث (جويل دودلي) يعلق على ذلك بقوله:

(يمكننا بناء هذه الأنظمة من الذكاء الاصطناعي ، لكننا لا نعرف كيف نعمل بداخلها).

كيف يجب أن يكون الذكاء الاصطناعي

في الحقيقة هناك نوعان من النظريات التي يعتمد عليها الذكاء الاصطناعي وتطبيقاته ، خاصة فيما يتعلق بطريقة الفهم وإمكانية فهم طريقة عمله وكيف توصل إلى هذه النتائج المبهرة:

  • تستند النظرية الأولى إلى إنشاء أنظمة وتطبيقات تستخدم الأوامر والقواعد المبرمجة مسبقًا من قبل مجموعات من المبرمجين ، مما يجعل منطق أعمالهم سهل الفهم ، والقرارات التي تتخذها تطبيقات الذكاء الاصطناعي هذه يمكن التنبؤ بها.
  • أما النظرية الثانية فتعتقد أن مستقبل الذكاء الاصطناعي للآلة يعتمد على تعلمه من الذكاء البشري وتطوره من خلال التجارب والملاحظة ، مما يضعنا من حيث الخوارزميات والبرامج التي يمكنها برمجة نفسها بنفسها ، من خلال البيانات تتعلق بالمعضلة أو المشكلة التي تتناول حلها.

تطوير الذكاء الاصطناعي

تطوير الذكاء الاصطناعي

حتى وقت قريب ، كانت تطبيقات الذكاء الاصطناعي بسيطة للغاية ومحدودة ، مما حد من انتشاره ، لكن دخول أجهزة الكمبيوتر إلى أنواع مختلفة من الصناعات والمجالات المختلفة وزيادة حجم المعلومات التي يمكن تبادلها ، أدى إلى إعادة اكتشاف الذكاء الاصطناعي مرة أخرى ، وإلى تطويره لاحقًا ، يعمل بطرق جديدة لتعليم الآلة. وعلى وجه الخصوص ، نسخ الشبكات العصبية الاصطناعية التي تشبه في عملها عمل الشبكات العصبية البشرية في الدماغ البشري.

لقد أصبحت قادرة على التعرف على البيانات المكتوبة بخط اليد ويمكن تحويلها إلى صورة رقمية ، كان ذلك في أوائل التسعينيات ، ولكن في بداية العقد الحالي من هذا القرن ، شهدت هذه الشبكات تطورًا كبيرًا تمثله الشبكات العصبية العميقة ، والتي تشمل مئات الطبقات وكل منها يحتوي على آلاف الخلايا العصبية الاصطناعية.

سيارة نفيديا

سيارة نفيديا

رأى الناس سيارة NVIDIA ذاتية القيادة تجوب شوارع نيوجيرسي ، ولم تكن مختلفة عن السيارات ذاتية القيادة الأخرى ، من حيث الشكل ، لكنها تختلف عن السيارات التي صنعتها تسلا وجنرال موتورز وجوجل ، لأنها تختلف. عنهم ، لا يعتمد في عمله على البرامج التي تحدد عمل جميع أجزائه بالتفصيل ، بل يعتمد على الخوارزميات التي تعلم نفسها بنفسها ، بنفس الطريقة التي يتعلم بها البشر أنفسهم.

تعتبر سيارة NVIDIA (NVIDIA) نقلة نوعية في اعتمادها على الذكاء الاصطناعي ، لكن الطريقة التي تتخذ بها القرارات التي تتخذها أثناء تحركها بمفردها لا تزال غير واضحة ومفهومة حتى من قبل مصمميها ، حيث تأخذ المعلومات من المستشعرات التي تنتشرها إلى الشبكة العصبية المركبة الصناعية الموجودة في السيارة ، وتعمل على إصدار الأوامر والقرارات لجميع أجزائها بما في ذلك التوجيه والمكابح ، من أجل السير على الطرق كأي سيارة عادية

إلى هنا والأشياء لا تزال على ما يرام ، ولكن إذا حدث ما هو غير متوقع ، مثل اصطدام السيارة بشجرة على الطريق ، أو توقفها عن القيادة بإشارة مرور خضراء؟ ماذا سيحدث؟

من الصعب تتبع وشرح تحركات هذه السيارة على الأرض ، لأن نظام التشغيل الذي تعتمد عليه معقد للغاية ، بحيث لا توجد طريقة لشرح وشرح لنا القرارات التي تتخذها هذه الأنظمة من الذكاء الاصطناعي ، وهذا يمثل حجر عثرة في مستقبل الذكاء الاصطناعي والتطبيقات التي تعتمد عليه.

يجب على المرء أن يكون حذرا

هل للذكاء الاصطناعي جانب مظلم؟

استثمرت الحكومات الأمريكية مليارات الدولارات لتوظيف تكنولوجيا التعلم الآلي للأغراض العسكرية ، مثل قيادة الطائرات والمركبات وتحديد الأهداف ، وقدرت وزارة الدفاع هذا الفهم من الداخل ، أي كيف ومعرفة ما يحدث بالداخل. تعتبر الآلة من أولى التحديات بالنسبة لهذه المشاريع ، ومعرفة الآلية أو الطريقة التي يتم إتباعها. وتتخذ الآلات قراراتها.

في أحد الأبحاث التي قادها الدكتور كارلوس جسترين ، حيث عمل في مشروع للبنتاغون ، وهو برنامج يمكن أن يجبر الآلة على تقديم التفسيرات والمبررات التي أدت إلى اتخاذ القرار.

لكن فشل ذلك البرنامج كان في بدائية الشرح المقدم والذي لا يلبي الغرض مما دفعه للقول "لم ننجح في تحقيق ما كنا نحلم به ونريده. يشرح منطق الأساليب التي يستخدمها لاتخاذ قراراته.

الحل هو الحل ... ليس الحل!

من الممكن أن يكون الحل ببساطة هو تعزيز ثقتنا فيما يقرره الذكاء الاصطناعي ويخرجه لنا من القرارات ، ولكن هناك معضلة مهمة للغاية ، وهي أن الطريقة التي يعمل بها الذكاء الاصطناعي يجب أن تكون متسقة مع ما لدينا. القيم الاجتماعية الخاصة ، كمثال إذا صممنا رجلًا روبوتات للاستخدام العسكري في القتال تعتمد على الذكاء الاصطناعي ، لذا فإن الطريقة التي تؤدي بها مهامها من المفترض أن تتوافق مع قيمنا الأخلاقية.

استنتاج

الذكاء الاصطناعي والتعلم العميق

إذا أردنا استخدام الذكاء الاصطناعي والاعتماد عليه ، فعلينا التمسك به بحزم ، والطريقة التي تمكننا من ذلك هي معرفة وفهم كيفية الحصول على إجابة منه في موقف ما ، ولكن هذا غير ممكن حاليًا ، وبالتالي من واجبنا التحلي بالصبر والحذر بشأن كل ما يمكن أن يقدمه لنا بالإجابات ، ويجب ألا ننخدع بمستوى الذكاء الذي تظهره الآلة يومًا بعد يوم ، وهذه النصيحة يقدمها المشهورون. يقول الفيلسوف دانيال دينيت:

"لا تمنح أبدًا ثقة مجانية وعمياء في الماكينة والذكاء الاصطناعي الذي تتمتع به ، إلا إذا وجدت طريقة لشرح وتبرير منطقيًا للقرارات التي تتخذها."

قد تكون مهتمًا أيضًا:

  • لنتعرف على الأنواع الأربعة للذكاء الاصطناعي ... التهديدات والمخاطر
  • الأجهزة المنزلية الذكية ليست سوى التجسس علينا ... ماذا يمكننا أن نفعل
  • ماذا يعني مفهوم الذكاء الاصطناعي اليوم؟ ما حقيقة المخاوف بشأنه؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى