recent
أحدث المواضيع

كيف أصبح الذكاء الإصطناعي - Artificial-ntelligence يشكل خطرا على وجود البشرية...

كيف أصبح الذكاء الإصطناعي - Artificial intelligence يشكل خطرا على وجود البشرية

الذكاء الإصطناعي وتأثيره على وجود البشرية

  لطالما كان الإنسان هو أذكى الكائنات على الأرض ، الأمر الذي أتاح له الهيمنة منفردا على باقي المخلوقات لكن التطورات السريعة التي شهدها الذكاء الاصطناعي - Artificial-intelligence خلال الأعوام الماضية، والحديث عن محاولات الوصول إلى "ذكاء اصطناعي عام" ، تثير أفكارا حول ما إذا كان الإستمرار في هذا المسار التطوري سيخلق منافسا لنا في الذكاء ، وسيجعل الذكاء الإصطناعي خطرا وجوديا على البشر في نهاية المطاف

الخوف من لحظة التفرد التكنولوجي:

في مقابلة أجريت مع صحيفة "نيويورك تايمز" الأميركية العام الماضي ، عبر الملياردير إيلون ماسك عن اعتقاده بأن الذكاء الإصطناعي سيتفوق على البشر خلال أقل من خمس سنوات معتبرا أن الأشخاص الأذكياء جدا مغرورون باعتقادهم أن الحاسوب لن يصبح ذكاً مثلهم.
بحيث لم تكن هذه هي المرة الأولى التي يقدم فيها ماسك تنبؤات مخيفة حول إمكانات الذكاء الإصطناعي ، فقد حذر الجمهور في مؤتمر "ساوث باي ساوث واست" عام 2018 ، قائلا: "أنا حقا قريب جدا من أحدث التقنيات في مجال الذكاء الإصطناعي ، وهذا يخيفني بشدة . إنها قادرة على تحقيق أكثر بكثير مما يعرفه أي شخص تقريبا ، ومعدل التحسن هائل" حديث ماسك حول لحظة التفرد التكنولوجي (Technological singularity) التي سيتجاوز فيها الذكاء الإصطناعي كل الذكاء البشري ليس جديدا في الواقع ، بل سبقه إليه الكثير من العلماء ورواد التكنولوجيا مثل ستيفن هوكنج وبيل جيتس ، الذين حذروا من إمكانية الوصول إلى هذه النقطة المحفوفة بالمخاطر.
وتختلف تقديرات العلماء للتوقيت والكيفية التي قد يحدث من خلالها الذكاء الإصطناعي تأثيرات سلبية محتملة على البشر لكن المخاطر التي يرى الباحثون أنه ينبغي التركيز عليها هي على الشكل التالي:
تزييف الحقائق والتحكم في عملية صنع القرار ، بحيث تتيح تقنية التزييف العميق صنع فيديوهات مزيفة بالإعتماد على التعلم الآلي ،وذلك عبر دمج مجموعة صور ومقاطع فيديو وتسجيلات صوتية لشخص معين ، لإنتاج مقطع فيديو جديد يكون فيه الشخص كلاما غير حقيقي أو يقوم بتصرفات لم يقم بها في الواقع.
وتخلق المواد العميقة التزييف خطرا مزدوجا خداع المشاهدين للاعتقاد بأن التصريحات أو الأحداث الملفقة حقيقية ، وتقويض ثقة الجمهور في مصادر المعلومات الموثوقة.
علاوة على ذلك يمكن لأدوات الذكاء الإصطناعي المتطورة -مثل النماذج اللغوية الكبيرة- أن تزيد من تفاقم هذه المشكلات وأن تقدم خطابا مثير للانقسام ومعلومات مضللة . وقد أنتج نموذج جي بي تي 3 (GPT-3) قبل ذلك فعلا نصوصاً عنصرية ومتحيزة جنسيا لأنه كان يتعلم من محتوى الإنترنت الذي تم تدريبه عليه.
أما فيما يتعلق بمخاطر الذكاء الإصطناعي على عملية صنع القرار ، فتشير دراسة أعدها مركز مؤسسة راند (RAND) للأمن والمخاطر العالمية إلى أننا تحولنا خلال بضعة عقود فقط من مجتمع يعتمد على الآلات إلى مجتمع يعتمد على المعلومات. وتدريجيا ، باتت النظم الخوارزمية جزءا لا يتجزأ من عمليات صنع القرار . وقد ترافق هذا الأمر مع "ميل البشر نحو التحيز للأتمتة" ، بمعنى أن الناس يميلون عموما لإسناد المزيد من المصداقية للنتائج والقرارات التي تتخذها أدوات الذكاء الاصطناعي ، دون الأخذ في الحسبان مخاطر التحيز والأخطاء الكامنة في تلك الأدوات.
وفي الآونة الأخيرة زادت حالات الكشف عن عمليات "تحيز مؤتمت" ترتكبها العديد من أنظمة الذكاء الإصطناعي . ونكتفي هنا بمثال واحد يوضح أن الخوارزميات يمكن أن تظهر جوانب عنصرية عند صنع قراراتها فقد توصلت دراسة نشرتها دورية الطب الباطني العام ، في أكتوبر الماضي إلى أن إحدى الخوارزميات المستخدمة في تقييم وظائف الكلى في مدينة بوسطن الأميركية كانت ترفض وضع المرضى السود على قوائم انتظار عمليات زراعة الكلى ببساطة لأنها كانت تأخذ معامل العرق في الاعتبار عند تقييم المرضى.
ثاني المخاطر التي قد يمثلها الذكاء الإصطناعي على البشر هي الإستيلاء على وظائفهم وينظر إلى الوظائف بشكل عام على أنها الشاغل الأكثر إلحاحا على المدى القريب إذ يتوقع تقرير صادر عن شركة برايس ووترهاوس كوبرز (PwC) أنه بحلول منتصف ثلاثينيات القرن الحالي قد تتحول ثلث الوظائف إلى الأتمتة. وعلى نفس المنوال قدرت منظمة التعاون الاقتصادي والتنمية OECD أن 14٪ من الوظائف معرضة بدرجة عالية للخطر وذلك على الرغم من أن أحدث تقرير أصدرته المنظمة عام 2021 يشير إلى أن أعداد العمالة نمت في جميع دول المنظمة تقريبا خلال الفترة (2012-2019).
بيد أن المخاوف ليست جديدة تماما بل يتمتع البشر بتاريخ حافل من التوقعات الخاطئة حول التأثير السيئ على الوظائف ولعل أحد أول وأبرز الأمثلة التاريخية على ذلك هو ما حدث عندما اخترع ويليام لي المقيم في نوتنجهام بإنجلترا عام 1589 ، آلة حياكة لإنتاج الجوارب التي اعتبرت طفرة حينها في ميكنة صناعة النسيج قبل الثورة الصناعية . لكن الملكة إليزابيث الأولى رفضت منح براءة اختراع للآلة خوفا من تأثيرها على صناعة الحياكة اليدوية في بلادها ومع ذلك، فقد وفرت الثورة الصناعية بعد ذلك بقرنين فرص عمل هائلة في بريطانيا.
وفي الوطن العربي هناك حادثة شهيرة وقعت في مصر ظهر فيها الخوف من سيطرة الآلة على أعمال البشر ففي فبراير من عام 1942 شهدت القاهرة مظاهرة حاشدة شارك فيها أصحاب العربات التي تجرها الدواب والتي كانت وسيلة المواصلات الرئيسية آنذاك أمام منزل رئيس مجلس الوزراء سعد زغلول اعتراضا على انتشار سيارات التاكسي في شوارع القاهرة التي توقعوا أنها ستقضى على أعداد كبيرة من الوظائف المباشرة وغير المباشرة المرتبطة بصناعة النقل المعتمد على الحيوانات ومع ذلك سرعان ما اتضح أن انتشار السيارات الآلات في الشوارع وفر وظائف مختلفة لمئات الآلاف من الأشخاص ، وفي المقابل وعلى غرار ما حدث في مثالي الثورة الصناعية والعربات التي تجرها الدواب ، تتوقع العديد من التقديرات أن يخلق الذكاء الإصطناعي المزيد من الوظائف خلال السنوات القليلة المقبلة .
وبحسب تقرير أصدره المنتدى الإقتصادي العالمي ، فإن معظم فرص العمل الجديدة ستتركز حول الهندسة والحوسبة السحابية وتطوير المنتجات ، وبالتالي فإن غالبيتها لن يكون مناسبا إلا للمتخصصين وذوي المهارات التدريبية والتعليمية العالية ممن يمكنهم التعامل مع التطورات التكنولوجية ، لكنه قد يضر القوى العاملة اليدوية بشكل كبير.
خروج الذكاء الإصطناعي عن السيطرة:
أول ما يدور في الأذهان عند الحديث عن مخاطر الذكاء الإصطناعي العام هو سيناريو وصول الآلات إلى مستويات ذكاء تفوق الإنسان لدرجة تمكنها من اتخاذ قراراتها بشكل مستقل دون العودة إلى البشر في أي مرحلة. ربما يكون السبب في تلك النظرة عدم الفهم الدقيق لكيفية عمل الذكاء الاصطناعي أو بسبب القصص الأدبية والأفلام التي كثيراً ما تحدثت عن هذا السيناريو.
وعلى الرغم من أن هذا الأمر قد يكون أقرب إلى الخيال العلمي منه إلى الواقع إلا أن ثمة حالات خرج فيها الذكاء الإصطناعي فعلا بشكل ما عن السيطرة ففي عام 2017ة، أوقفت شركة فيسبوك تجربة ذكاء اصطناعي بعدما طور اثنان من روبوتات الدردشة لغة غريبة لا يفهمها سواهما وهو ما فعلته أيضا أنظمة ذكاء اصطناعي طورتها شركة جوجل في نفس العام.
ومع ذلك يتفق معظم الباحثين على أنه من غير المرجح أن يظهر الذكاء الإصطناعي الخارق المشاعر البشرية مثل الحب أو الكراهية وأنه لا يوجد سبب لتوقع أن يصبح الذكاء الإصطناعي خيرا أو خبيثا عن عمد وبدلا من ذلك ، يعتقد الخبراء في معهد مستقبل الحياة الذي يضم في عضويته الكثير من العلماء والمفكرين البارزين ومنهم ماسك وهوكنج أن هناك سيناريوهين مرجحين لأنْ يمثل الذكاء الاصطناعي خطرا وجوديا علينا أن يكون الذكاء الإصطناعي مبرمجا للقيام بشيء مدمر كما يمكن أن يحدث في حالة سباق تسلح بالذكاء الإصطناعي تسفر بشكل غير مقصود عن حرب ذكاء اصطناعي.
أن يكون الذكاء الاصطناعي مبرمجا للقيام بشيء مفيد لكنه يطور طريقة مدمرة لتحقيق هدفه كما قد يحدث مثلا إذا تم تكليف نظام فائق الذكاء بمشروع هندسة جيولوجية طموح فقد يُحدث دمارا في نظامنا البيئي كأثر جانبي ، وقد ينظر إلى المحاولات البشرية لإيقافه على أنها تهديد يجب مواجهته وبالتالي فالخطورة لا تكمن في رغبة الذكاء الاصطناعي المحتملة في الإضرار بالبشر ، وإنما في أنه على الأرجح سيكون جيدا جدا في تحقيق أهدافه التي ربما لن تكون نفس أهدافنا.
  ففي الوقت الحالي ، قد لا تكون الإجابة عن السؤال الذي تطرحه المقالة واضحة بالدرجة الكافية لا سيما وأن هناك آراء لها ثقلها في مجال الذكاء الإصطناعي ترى أن هذه المخاوف تنطوي على مبالغة. فمثلا يُشبه أندرو إنج ، الأستاذ المساعد في جامعة ستانفورد ومؤسس فريق جوجل برين (Google Brain)، المخاوف من ظهور روبوتات قاتلة في المستقبل القريب بالمخاوف المتعلقة بالزيادة السكانية على كوكب المريخ.
وفي النهاية ربما نحن نبحث فقط عن وسائل أمان لنطمئن أنفسنا بأن الذكاء الإصطناعي سيظل تحت سيطرتنا إلى الأبد لكن الشئ المؤكد وأتمنى ألا يسعى الذكاء الإصطناعي ورائي يوماً ما بسبب قولي هذا أن الخطورة الحقيقية تكمن في أن نثق أكثر من اللازم في الأنظمة الذكية.

كيف أصبح الذكاء الإصطناعي - Artificial-ntelligence يشكل خطرا على وجود البشرية...
عالم التقنيات للمعلوميات

تعليقات

ليست هناك تعليقات
إرسال تعليق
    google-playkhamsatmostaqltradent