الذّكاء الاصطناعي: مستقبلٌ (لا) نؤمن به؟


نحن نعيش في عصر التّغيّرات المذهلة. فالتّكنولوجيا تتقدّم بوتيرةٍ أسرع، وأصبحت جزءاً لا يتجزأ من الحياة اليومية والعمل، مع ظهور حلول تكنولوجية جديدة ومتطورة يومياً. ما كان ينتمي في السّابق إلى عالم الخيال العلمي أصبح حقيقة واقعة بشكل متزايد. ومع مرور الوقت، تلعب التكنولوجيا دوراً أكثر أهمية في حياتنا.

ولطالما كانت الابتكارات هي المحرك الرئيسي للتقدم، فقد أحدثت الابتكارات التكنولوجية خلال الثلاثين عاماً الماضية تغييرات جوهرية في طريقة عملنا وتواصلنا وحياتنا. كما دخل الذّكاء الاصطناعي (AI) حياتنا ببطء ولكن بثبات، دون أن يلاحظه في كثير من الأحيان أولئك الّذين ليسوا على درايةٍ بكيفيّة عمل نماذج الذّكاء الاصطناعي القائمة على التنبؤ. لقد كان الذّكاء الاصطناعي يخصص محتوى الإنترنت، ويقدم إعلانات مستهدفة، ويعمل كمساعد شخصي على هواتفنا.

ومع ذلك، تغير كل شيء في تشرين الثاني/ نوفمبر 2022 عندما أتاح الذّكاء الاصطناعي مفتوح المصدرOpenAIنموذج الذّكاء الاصطناعي التّوليديChatGPTللاختبار. فقد أتاحت الواجهة سهلة الاستخدام، إلى جانب معالجة اللّغة الطّبيعية، اعتماداً أوسع لتلك الأدوات. على عكس نماذج الذّكاء الاصطناعيّ السّابقة، الّتي كانت تتطلب معرفة متخصصة، حيث سمحت بساطة نموذجChatGPTوتوافره على نطاقٍ واسع لكلّ مستخدم للإنترنت التّفاعل مع أداة الذّكاء الاصطناعيّ هذه، وطرح الأسئلة، وتلقّي المحتوى والإجابات الّتي يولّدها الذّكاء الاصطناعي.

وهكذا، دخلنا عصر انتشار تطبيقات الذّكاء الاصطناعيّ على نطاقٍ واسع. فقد تحوّل الذّكاء الاصطناعيّ في أقلّ من ستّة أشهر من موضوعٍ يقتصر على عددٍ محدودٍ من الخبراء المتخصّصين، إلى نقطةٍ مركزيّةٍ في المناقشات في مختلف التخصّصات. كما أصبحنا نشهد نقاشاتٍ متزايدةً حول تأثير الذّكاء الاصطناعيّ الحاليّ والطّويل الأجل على النّاس والمجتمع في وسائل الإعلام وشبكات التّواصل الاجتماعي، وغالباً ما يصاحب ذلك نقاشاتٍ حول السّيناريوهات المستقبليّة المحتملة من سيناريوهاتٍ مثاليّةٍ أو بائسة.

في دائرة الضّوء من أجل المصلحة العامّة

إنّ سهولة الوصول إلى نماذج الذّكاء الاصطناعيّ التّوليدي واستخدامها مثلChatGPTوGoogle Geminiوغيرهما، بالإضافة إلى استخداماتها المحتملة، وضعت هذه التّقنيّات بين عشيّةٍ وضحاها في دائرة الضّوء للمصلحة العامّة. لقد غيّرت نماذج الذّكاء الاصطناعيّ التّوليدي نموذج إنشاء المحتوى وإيجاده بشكلٍ جذري. ويمكن الآن إنشاء المحتوى الّذي كان يتطلّب في السّابق ساعاتٍ من العمل في ثوانٍ، سواءً كان نصيّاً أو مرئيّاً أو مقاطع فيديو.

وفي الوقت نفسه، بدأ عددٌ متزايدٌ من المستخدمين في استبدال عمليات البحث التقليدية على الإنترنت بأسئلة تُطرح على الذّكاء الاصطناعي. وسرعان ما أدركت مايكروسوفت هذا الاتجاه وقامت بدمج نموذج الذّكاء الاصطناعي التّوليدي في محرك البحثBingالخاص بها، مما يسمح بطرح الأسئلة المباشرة والإجابات الفورية. وعقب النماذج النصية، ظهرت نماذج الذّكاء الاصطناعي التّوليدية لإنشاء محتوى مرئي وفيديو:MidjourneyوDall-EوLeonardoوSynthesiaوHeyGenونماذج متخصصة للتطبيق في مختلف التخصصات. كما يشهد عدد الشركات الناشئة في مجال الذّكاء الاصطناعي تزايداً مستمراً، ومن المتوقع أن ينمو سوق منتجات الذّكاء الاصطناعي التّوليدي بنحو 20 مليار دولار أمريكي سنوياً حتى نهاية عام 2030. وبالنظر إلى سهولة الاستخدام والنطاق الواسع للتطبيقات، ستلعب هذه التقنيات دوراً متزايد الأهمية في المستقبل.

ومن ناحية أخرى، أثار الاستخدام الواسع النطاق للذكاء الاصطناعي التّوليدي العديد من التساؤلات في العديد من المهن، خاصة في مجال الاتصالات، حيث ترتفع احتمالية التلاعب. ويواجه المتخصصون في مجال الاتصالات تحدي إمكانية توليد الذّكاء الاصطناعي لأي معلومة، مما يجعل صحة المعلومات مهددة أكثر من السّابق.

لقد جلب عصر وسائل التواصل الاجتماعي بالفعل مشكلة نشر الأخبار المزيفة والمعلومات المضللة، والّتي يصعب السيطرة عليها. وقد أدى استخدام الذّكاء الاصطناعي لإنشاء محتوى يبدو في البداية شرعياً تماماً، إلى تفاقم هذه المشكلة إلى مستوى أعلى.

هل يمكننا الوثوق بما نراه بأعيننا؟

مع تزايد أدوات الذّكاء الاصطناعي المتطورة لإنشاء المحتوى المرئي ومحتوى الفيديو، يبرز السؤال عما إذا كان لا يزال بإمكاننا الوثوق بأعيننا وما إذا كنا سنعيد في المستقبل فحص كل محتوى نراه بشكل نقدي، لتحديد احتمال كونه وليد الذّكاء الاصطناعي. هل يمكننا حتى التعرف على المحتوى الّذي تم إنشاؤه؟ ووفقاً لدراسة حديثة أُجريت في المملكة المتحدة لم يتمكن أكثر من ثلث المشاركين من التمييز بين المحتوى الحقيقي والمحتوى المُنشأ (المزيف للغاية).

وهذا مجرد غيض من فيض. لكن كيف ننظم استخدام هذه الأدوات في أنشطة التواصل العادية؟ هل استخدام الذّكاء الاصطناعي في كتابة النشرات الإعلامية والمقالات الإخبارية مقبول؟ ومع تزايد الأتمتة وصقل نماذج الذّكاء الاصطناعي التّوليدية، هل سيكون مستقبل التواصل عبر الإنترنت عبارة عن مستقبل نقرأ فيه بشكل متزايد الأخبار، ومنشورات وسائل التواصل الاجتماعي، والبيانات التي يتم إنشاؤها بالكامل بواسطة أدوات الذكاء الاصطناعي؟ هل يجب وضع علامات خاصة على المحتوى الّذي تم إنشاؤه بواسطة الذّكاء الاصطناعي؟ كيف يمكننا تنظيم التواصل مع مساعدي الذّكاء الاصطناعي المخصصين الّذين يكتسبون تطبيقات تجارية أوسع نطاقاً؟ ما هو مستوى التخصيص المقبول، وكيف يتم استخدام بياناتنا بواسطة نماذج الذّكاء الاصطناعي القائمة على التنبؤ؟ وأخيراً وليس آخراً، هل سيحل الذّكاء الاصطناعي محل الصحفيين، والعاملين الإداريين، وموظفي الاتصالات والعلاقات العامّة في المستقبل؟

لقد مر أكثر من عام منذ أن بدأنا استخدامChatGPTوالأدوات المماثلة، وما زلنا لا نملك إجابات واضحة على معظم هذه الأسئلة. أما بالنسبة للاتصالات والعلاقات العامّة، يتلخص الدور الرئيسي للجمعيات والمنظمات المهنية في وضع مبادئ توجيهية أخلاقيّة لاستخدام الذّكاء الاصطناعي في هذه المهن. فالثقة هي أساس كل العلاقات العامّة والاتصالات، وفي عصر ما بعد الحقيقة والمعلومات المولّدة، يبرز السؤال حول من يمكننا أن نثق به اليوم.  حيث يمكن أن يتلاشى الخط الفاصل بين الحقيقة والخيال بسهولة في عصر التبادل السريع للمعلومات والوسائط الرقمية إلى جانب الاستخدام غير الأخلاقي للذكاء الاصطناعي، كما أصبحت احتمالات إساءة الاستخدام غير محدودة.

الجمعية الدولية للعلاقات العامّةIPRAفي طليعة الجمعيات المهنية في مجال الأخلاقيات

تُعد الجمعية الدولية للعلاقات العامّة (IPRA)، بقيادة رئيستها ناتاشا بافلوفيتش بوجاس من صربيا، من أوائل الجمعيات المهنية الّتي أدركت الحاجة إلى وضع مبادئ توجيهية أخلاقيّة لاستخدام الذّكاء الاصطناعي في الاتصالات، وشكلت مجموعة عمل دولية من المتخصصين في مجال الاتصالات للعمل على إنشائها. ويوجد حالياً الكثير من الأسئلة المفتوحة وأوجه الغموض المتعلقة باستخدام الذّكاء الاصطناعي، وخاصة النماذج التّوليدية المستخدمة في إنشاء المحتوى.

وسيكون وضع معايير واضحة للسلوك والعمل للمهنيين في مجال العلاقات العامّة والاتصالات، وتحديد الاستخدام المقبول وغير المقبول للذكاء الاصطناعي أمراً بالغ الأهمية في المستقبل. وهذه هي الخطوة الأولى فقط. فمتى ما تم وضع هذه المعايير، يجب مراجعتها باستمرار بما يتماشى مع تطور التقنيات الجديدة، وضمان التعليم وتطبيق المعايير في الوقت المناسب في الواقع العملي.

إن إمكانات استخدام الذّكاء الاصطناعي لتحسين العمليات وزيادة الإنتاجية كبيرة، ولكن تأتي معها مسؤولية كبيرة، خاصة في مجال الاتصالات. حيث يمثل الاستخدام الشفاف والمسؤول لأدوات الذّكاء الاصطناعي، الّذي يوازن بين التقدم التكنولوجي والحفاظ على القيم والمعايير المهنية، تحدياً لنا وللأجيال القادمة. ونحن مسؤولون في هذه اللحظة عن وضع مبادئ توجيهيّة، وتطبيقها بصدق، لتمكين الاستخدام الأخلاقي والمسؤول لهذه التقنيات. وأخشى أننا إذا لم نحدد وننفذ أطر عمل ومعايير أخلاقيّة واضحة، سنواجه مستقبلاً مضللاً لا يمكننا فيه التمييز بين الكذب والحقيقة.

• أطلقتIPRAمؤخّراً فرعاً خاصّاً بالذّكاء الاصطناعي.

المؤلّفة د. نيكولينا لييبافاDr. Nikolina Ljepava

د. نيكولينا لييبافا، القائمة بأعمال عميد كلّية إدارة الأعمال، الجّامعة الأمريكيّة في الإمارات.

https://www.ipra.org/news/itle/itl-597-artificial-intelligence-a-future-we-dont-believe-in/

ترجمة وتدقيق صَبَا إبراهيم سعيد

تحذير واجب.

لا يحق نشر أي جزء من منشورات ميديا & PR، أو اختزان مادته بطريقة الاسترجاع، أو نقله على أي نحو، سواء إلكترونياً أو ميكانيكياً أو خلاف ذلك دون الاشارة الى المصدر، تحت طائلة المساءلة القانونية

يرجى التواصل لطلب إذن الاستخدام:

info@ipra-ar.org


Follow IPRA:

اتصل بنا

Mobile1 : +961-70043459
Mobile2 : +963-116122067
Fax :+963-0116117020
Email :ingo@ipra-ar.org