الذكاء الاصطناعي يمثل تهديدًا أكبر للعالم من تغير المناخ
تم النشر في الثلاثاء 2023-08-01
أوضحت دراسة أطلقتها شركة لايك ديجيتال وشركائها مؤخراص عن الذكاء الاصطناعي، الذي كان يعتبر في يوم من الأيام مجرد خيال علمي في أفلام وروايات عالم الخيال، والذي ظهرَ بقوة في حياتنا اليومية خلال السنوات الأخيرة. وقد تناولت الدراسة عدة مناقشات حول إمكانية استخدام تقنية تشات جي بي تي ( Chat-GPT ) في كتابة الإعلانات الخاصة، أو الخوف الحقيقي الذي أثارهُ المسؤول التنفيذي سابق مو جودت في جوجل، الذي يؤكد أن الذكاء الاصطناعي يمثل تهديدًا أكبر للعالم من تغير المناخ، وأن الذكاء الاصطناعي أصبحَ ظاهرة لا يمكن تجاهلها ولا يمكن إنكار إنتشارها، رغم أن مفهوم الذكاء الاصطناعي ليس جديدًا (فقد ظهر لأول مرة في الخمسينيات من القرن الماضي)، إلا أنه شهدَ مؤخراً اهتماماً واسعاً فيما يتعلق بالتطبيقات العملية وسهولة الوصول إليه. يُمكن القول أن الذكاء الاصطناعي، الذي كان في السابق مجالًا محصورًا للعلماء والفلاسفة، أصبح الآن متاحًا لأي شخص يملك إمكانية الوصول إلى الإنترنت، وهذا يتيح لنا الوصول إلى عدد لا يحصى من الفرص والموارد التي تمتد بين أيدينا.
تناولت الدراسة كذلك مقالاً نُشِرَ مؤخرًا في مجلة هارفارد الأعمال، التي لم تُظهر أي علامات على تباطؤ النمو في صناعة الذكاء الاصطناعي، وتوقعت أن يتجاوز إنفاق الشركات العالمية على خدمات الذكاء الاصطناعي 50 مليار دولار أمريكي في هذا العام ويصل إلى 110 مليارات دولار أمريكي في عام 2024.
توصلت الدراسة إلى العديد من النصائح التي تم استخلاصها من الأبحاث والتقارير التي ناقشت تأثير الذكاء الاصطناعي على الاقتصاد والابتكار. فيما يلي نستعرض أهم الفوائد والنصائح التي تم تلخيصها في هذه الدراسة:
اهم فوائد الذكاء الاصطناعي للشركات
عندما يُستخدم الذكاء الاصطناعي بشكل صحيح، لا يمكن إنكار أنه يُمكن أن يُجلب فوائد كبيرة للشركات. وتعدُ اهم المزايا الأساسية التي يُمكن أن يوفرها الذكاء الاصطناعي، هي زيادة الكفاءة وتبسيط العمليات، وتحسين الخدمات اللوجستية وسير العمل والموارد، وزيادة الإنتاجية. كما يمكنه كذلك تحسين عملية اتخاذ القرار وتحليل البيانات، وتجنب الأخطاء عن طريق إزالة العنصر البشري. جاءت هذه الفائدة وفقًا لاستطلاع أجرته PwC في عام 2022 حول اهمية الذكاء الاصطناعي في الأعمال، الذي بينَ أن 86% من الرؤساء التنفيذيين اعتبروا أن الذكاء الاصطناعي جانب أساسي من عملياتهم، حيث يستفيد القادة من قاعدة بيانات السحابة وتحليلاتها لتحقيق عائد أكبر. بينما بين أكثر من 1000 مشارك في الاستطلاع، أن النجاح الأعلى يكمن في تلك الشركات التي تتبع نهجا شاملا لتكامل الذكاء الاصطناعي بدلاً من التركيز على هدف واحد في كل مرة. إذ يقوم قادة الذكاء الاصطناعي بتنفيذ الكفاءات الأساسية في ثلاث مجالات في وقت واحد، وهي تحويل الأعمال، وتعزيز عملية صنع القرار، وتحديث الأنظمة والعمليات.
وأشارت الدراسة إلى أن قادة الذكاء الاصطناعي هم أكثر عرضة للإبلاغ عن “القيمة الجوهرية” التي تنطوي على مبادرات الذكاء الاصطناعي، والتي تهدف إلى تحسين الإنتاجية، وصنع القرار، وتجربة العملاء، وابتكار المنتجات والخدمات، وتجربة الموظف. هذا في مقارنة مع تلك الشركات التي تتبنى الذكاء الاصطناعي بنهج مجزأ أو غير متكامل.
كما ركزت الدراسة على أخر مقال نُشِرَ في مجلة هارفارد بيزنس ريفيو، أشارَ فيهِ تسيدال نيلي إلى أن تقنية الذكاء الاصطناعي ليست مجرد أداة لزيادة سرعة العمل، بل هي مجموعة من أنظمة التعاون التي تستطيع تحليل الأنماط التي لا تتسنى رؤيتها بالعين البشرية. كما إنها توفر رؤى وتحليلات وتنبؤات واقتراحات مستندة إلى البيانات. إذا تم البدء في استخدام الذكاء الاصطناعي لتحسين الأعمال من منظور شامل وشامخ، فإنك ستكون قادرًا على استغلال إمكاناتها الكاملة.
أخلاقيات الذكاء الاصطناعي وضرورة مساءلته
تحدثت الدراسة كذلك عن الوقت المناسب لتوجة الشركات نحو استخدام الذكاء الاصطناعي، أذ لا يتعلق الأمر بمجرد اتخاذ قرار بتبني تكنولوجيا الذكاء الاصطناعي في بيئة عملهم، بل يتعلق بمتى سيقومون بذلك. فقد جعلت شركات مثل أوبن إيه آي، ومايكروسوفت، وإنفيديا التكنولوجيا الذكاء الاصطناعي متاحة للجميع، من الطلاب حتى الشركات الرائدة، وبالتالي فإنها تواجه تحديات أخلاقية ومسائل متعددة. عندما يتجاوز تقدم التكنولوجيا قدرة القوانين والتنظيمات على مواكبة هذا التطور السريع، يتحمل كل مستخدم مسؤولية تحديد كيفية استخدام التكنولوجيا الذكاء الاصطناعي بطريقة تتوافق مع المعايير الأخلاقية وتضمن المساءلة الفردية.
نظرًا لقدرة الذكاء الاصطناعي على معالجة البيانات بسرعة كبيرة وفعالية، أصبحت الشفافية أمرًا حيويًا في كيفية الحصول على البيانات وتحليلها وتنفيذها. حيث تشير نماذج نيلي لللغات الكبيرة (LLMs) مثل تشات جي بي تي من أوبن إيه آي وبينج من ميكروسوفت، التي تم تدريبها على مجموعات بيانات ضخمة من الكتب وصفحات الويب والمستندات من جميع أنحاء الإنترنت، كما تم تدريب نماذج اللغات الكبيرة لأوبن إيه آي باستخدام 175 مليار معلمة، ومع ذلك، سيفتح ذلك الباب للذكاء الاصطناعي للتحيز الغير مقصود، حيث يمكن أن تكون مجموعات البيانات المستخدمة في التدريب لا تمثل سكان العالم بشكل كامل. وللتغلب على هذا التحدي، يجب على المطورين أن يعملوا على تضمين المزيد من التنوع في مجموعات البيانات الخاصة بهم وفي تكوين فرقهم، وعند تحقيق هذا التنوع فقط يمكننا ضمان أن الذكاء الاصطناعي سيكون حقاً متاحاً للجميع ولا يفضي إلى تضمين التحيز في أنظمته.
تعتبر الكثير من خوارزميات الذكاء الاصطناعي عبارة عن تعلم ذاتي، حيث تستمر في التطور وتحسّن مخرجاتها. وعندما تُستخدم هذه الخوارزميات بدون رادع، فإن ذلك قد يؤدي إلى استمرار التحيّز الضار وانتشار المعلومات الخاطئة وانتهاكات الخصوصية والأمان، وحتى يمكن أن يتسبب في الإضرار بالبيئة، كما لفتت نيلي الانتباه إليه. لذلك، قبل مشاركة المعلومات الحساسة مع برنامج الذكاء الاصطناعي، يجب على أصحاب الأعمال ضمان الخصوصية والأمان الشامل في تصميم البرنامج، وبالنسبة لأولئك الذين يتعاملون مع التفاصيل الحساسة، مثل معلومات الموظفين، ينبغي على الشركات النظر في تعيين خبير في مجال الخصوصية لينضم إلى فريقهم بدلاً من الاستعانة بالذكاء الاصطناعي.
العنصر البشري
يدور جزء كبير من النقاش العام حول الذكاء الاصطناعي حول ما إذا كانت هذه الأنظمة ستحل محل البشر في القوى العاملة أم لا، يُعترف بأن هناك بعض المجالات التي يتجاوز فيها الذكاء الاصطناعي بكثير على القدرات البشرية، لا سيما في المجالات العسكرية والطبية والتكتيكية، حيث تتقدم دقتها وبصيرتها بشكل ملحوظ في كثير من الحالات، ومع ذلك، يفتقد الذكاء الاصطناعي للعنصر البشري المرغوب فيه بشدة، سواء كانت التعاطف عند كتابة الإعلانات، أو الأصالة في التصميم، أو تقييم المخاطر الشخصية في التمويل، لذا لا يمكن للذكاء الاصطناعي أن يحل محل الفروق الدقيقة للقوى العاملة البشرية… حتى الآن على الرغم من التقدم الكبير الذي أحرزته التكنولوجيا، فإن الجانب الإنساني للعمل لا يزال ضرورياً لتحقيق بعض الجوانب المعقدة والفريدة في العمل واتخاذ القرارات.
ماذا بعد الذكاء الاصطناعي؟
تركز الجهود العالمية على تحصين العالم في المستقبل من المخاطر المحتملة للذكاء الاصطناعي، حيث يدرك المطورين العالميين اهمية الحاجة إلى العمل معاً وتبني جبهة موحدة للتعامل مع هذه التحديات على سبيل المثال، يعمل الاتحاد الأوروبي على صياغة قانون الذكاء الاصطناعي الخاص به، الذي يقترح تصنيف المخاطر إلى ثلاثة مستويات: المخاطر غير المقبولة والتي يجب أن يتم منعها، والمخاطر عالية الخطورة التي تحتاج إلى تنظيم ومراقبة، والمخاطر التي لا تشكل خطراً عالياً ويمكن تركها بدون تنظيم.
أما على المستوى العالمي، تقوم المؤسسات الغير ربحية والمعاهد البحثية بوضع معايير أخلاقية لاستخدام الذكاء الاصطناعي، وتشمل هذه المؤسسات الشراكة بشأن الذكاء الاصطناعي ومعهد الذكاء الاصطناعي المتمحور حول الإنسان ومبادرة الذكاء الاصطناعي المسؤولة. كما تهدف هذه المعايير إلى توجيه الشركات في استخدام الذكاء الاصطناعي بطريقة أخلاقية تحمي حقوق المستهلكين والموظفين وتضمن الشفافية والمساءلة في تصميم وتنفيذ التطبيقات الذكية. بهذه الجهود المشتركة، نأمل أن يُحقق الهدف في التحصين ضد المخاطر المحتملة للذكاء الاصطناعي وأن يُضمن استخدامه بطريقة آمنة ومسؤولة في مختلف المجالات والصناعات.
فقد دعا سابقاً إيلون ماسك، إلى التوقف عن إنشاء العقول الرقمية للذكاء الاصطناعي، وكان معه ستيف وزنياك، مؤسس شركة آبل، وعماد موستاك، مؤسس منظمة ستابيليتي إيه آي، ومع ذلك، أصبح ماسك الآن يعتقد أن الوقت قد فات ويجب التقدم في هذا المجال، وبصفته المؤسس المشارك لشركة أوبن إيه آي، يروج ماسك الآن لفكرة إنشاء برنامج ذكاء اصطناعي يكون على الأقل بذكاء البشر في إعلانه عن برنامجه للذكاء الخارق إكس إيه آي على تويتر في شهر يوليو الماضي، الذي أكد من من وجهة نظره نحو سلامة الذكاء الاصطناعي، أن الذكاء الاصطناعي فضولي إلى أقصى حد، وهو يحاول فهم الكون، لكنهُ يعتقد بأنهُ سيكون مؤيداً للإنسانية، وسيبقى ويستمر في التطور، لكن الأمر الأهم بالنسبة لنا كبشر هو الحفاظ على السيطرة والتحكم في تطوره واستخدامه بطريقة تعود بالفائدة على الإنسانية. تبقى هناك حاجة ماسة لمراقبة وتنظيم استخدام الذكاء الاصطناعي بطريقة أخلاقية ومسؤولة لضمان الاستفادة القصوى وتجنب أي تأثيرات سلبية على المجتمع والبيئة.