الذكاء الاصطناعي والعلاقات العامة: التوجهات القانونية والأخلاقية والتواصلية لعام 2025



دائمًا ما تكون التكنولوجيا عامل تغيير في مجال الاتصالات. فقد كانت المطبعة والتلغراف والهاتف والتلفاز والفاكس والإنترنت ووسائل التواصل الاجتماعي ابتكارات تكنولوجية أحدثت تغييراً في مجال الاتصال. ومع ذلك، حافظت هذه التغييرات إلى حد كبير على سلامة المجال في قيمه الأساسية، وجعلت التواصل في معظمه أكثر سهولة وتوجيهاً، وربما أفضل.

وفي أيامنا هذه، يطرح ظهور الذكاء الاصطناعي تحديات جديدة أمام العاملين في مجال التواصل، لا سيما في مجال العلاقات العامة. فمع بداية عام 2025، يطرح شبح الذكاء الاصطناعي أسئلة جديدة تصيب جوهر العلاقات العامة ووظيفة التواصل. ويتساءل ممارسو العلاقات العامة عن مدى أمان الذكاء الاصطناعي للاستخدام و دقته، هل يحمي الخصوصية؟ أو هل يتطلب الإفصاح؟ وربما الأهم من ذلك، هل سيأخذ وظائفنا؟

ويجري حالياً فرز الإجابات على هذه الأسئلة في مجال العلاقات العامة، إلى جانب المشرعين ومطوري الذكاء الاصطناعي والقوى العاملة العالمية. ويمثل عام 2025 نقطة انعطاف في اعتماد الذكاء الاصطناعي، حيث أصبحت المقاربات الفلسفية للتكنولوجيا واللوائح المحيطة بها أكثر رسوخاً. ويرى الكثيرون، بمن فيهم أنا، أن الذكاء الاصطناعي هو قوة للخير في مجال الاتصالات، لا سيما العلاقات العامة.

وتتمتع هذه الصناعة بميزة فريدة في التكيف مع تقنيات الاتصال الجديدة من خلال نهجها الأخلاقي الأساسي المتجذر في الشفافية والمساءلة والمعاملة العادلة. فالخبرة الإنسانية التي يتمتع بها ممارسو العلاقات العامة إلى جانب أسسهم الأخلاقية، تجعلهم غير قابلين للاستبدال بأي تكنولوجيا، مهما كانت تدعي أنها "ذكية".

ومع ذلك، يتوقع العاملون في مجال العلاقات العامة أن يصبح الذكاء الاصطناعي أكثر تطبيعاً في المهنة وتنظيمها عالمياً. وعلى الرغم من هذه التوقعات، لا يزال الذكاء الاصطناعي يثبت أنه تقنية يصعب التحكم فيها بشكل كامل. فالتنبؤ بالاتجاهات المستقبلية في أي صناعة أمر صعب، وفي مجال الذكاء الاصطناعي والاتصالات سريع الحركة تكون المهمة تخمينية أكثر.  ومع ذلك، هناك ثلاثة مواضيع مهيمنة برزت في السنوات القليلة الماضية، وهي مواضيع يجب على ممارسي العلاقات العامة أخذها بعين الاعتبار عند تطبيق الذكاء الاصطناعي في مجال الاتصالات.

غياب نهج عالمي موحد لتنظيم الذكاء الاصطناعي

يعكس تنظيم التكنولوجيا أولويات المشرعين والحكومات. وكما هو الحال مع أي قضية سياسية، تتباين أولويات تنظيم الذكاء الاصطناعي تبعاً للولاية المعنية.

ففي الاتحاد الأوروبي، أعطى قانون الذكاء الاصطناعي الأولوية لقضايا الخصوصية والرقابة والإشراف البشري، وحماية المجتمع من تجاوزات الذكاء الاصطناعي. كما يسود القلق بشأن الطبيعة غير الشفافة للذكاء الاصطناعي، التي تطرح مشاكل غير متوقعة متأصلة في آليات عمل الذكاء الاصطناعي.

ويوجه التاريخ القوي لحماية الخصوصية في الاتحاد الأوروبي هذه اللوائح. ومع ذلك، على الرغم من التأثير الكبير للاتحاد الأوروبي في السوق العالمية، إلا أن هذه المعايير والأولويات ليست عالمية.

ورغم قلق المشرعين الأمريكيين من العديد من هذه التأثيرات غير المتوقعة للذكاء الاصطناعي، لا سيما تلك التي قد تؤدي إلى تآكل القدرة البشرية، إلا أنهم قلقون أيضاً من الموقع الجيوسياسي للولايات المتحدة في تطوير الذكاء الاصطناعي.  وهذا يعني أن اللوائح التنظيمية الأمريكية تميل إلى الابتعاد عن اتباع نهج متشدد في تنظيم الذكاء الاصطناعي، إذ يُعتقد أن التنظيم الشامل يخلق بيئة قانونية غير مشجعة للابتكار في مجال الذكاء الاصطناعي.

ويبدو أن الصين، المنافس الرئيسي للولايات المتحدة في مجال تطوير الذكاء الاصطناعي، قد اعتمدت نهجاً مماثلاً. ومما يضاعف من مشكلة تنظيم الذكاء الاصطناعي هو الهيكل المجزأ للفيدرالية الأمريكية. وعلى عكس الاتحاد الأوروبي، الذي لديه لوائح تنظيمية شاملة، يعمل النظام القانوني الأمريكي من خلال إطار عمل لا مركزي، حيث تساهم كل من الولايات والحكومة الفيدرالية والوكالات الفيدرالية والولائية في وضع القوانين واللوائح. ومن المثير للاهتمام، في وقت كتابة هذا التقرير، أن الولايات هي التي أخذت زمام المبادرة في تطوير تشريعات الخصوصية للذكاء الاصطناعي.

تنظيم الذكاء الاصطناعي غير شامل لجميع القضايا التي تواجه العاملين في مجال التواصل

يلعب ممارسو العلاقات العامة دوراً فريداً في تطبيق الذكاء الاصطناعي على وجه التحديد، لأن قوانين الذكاء الاصطناعي الحالية لا تعالج جميع القضايا التي تواجه ممارسي التواصل. فمن الثابت أن القوانين بطيئة في اللحاق بالابتكار التكنولوجي. فحتى أكثر قوانين الذكاء الاصطناعي المعاصرة، وهو قانون الاتحاد الأوروبي للذكاء الاصطناعي، لا يعالج جميع القضايا التي يطرحها الاستخدام الواسع النطاق للذكاء الاصطناعي التوليدي.

كما يجلب ظهور تطبيقات جديدة للذكاء الاصطناعي، لا سيما الذكاء الاصطناعي التنبؤي، تحديات كبيرة، لا سيما في ضمان الشفافية في اتخاذ القرارات وإنشاء آليات للرقابة والطعون البشرية في السيناريوهات عالية المخاطر، مثل القرارات المالية أو القانونية أو الطبية. وبالنظر إلى هذا الواقع سيحتاج ممارسو العلاقات العامة إلى الاعتماد على المبادئ التوجيهية الأخلاقية الخاصة بهم لاتخاذ قرارات بشأن تطبيق الذكاء الاصطناعي.

قد تتطلب الأسئلة المتعلقة بالإفصاح عن الذكاء الاصطناعي واتخاذ القرارات والتطبيق والتحقق من الدقة والرقابة من ممارسي العلاقات العامة، وضع أدلة مؤسسية للذكاء الاصطناعي تتم مراجعتها بانتظام مع تطور التكنولوجيا. كما يبدو أن هناك أيضاً توقعات متغيرة حول استخدام الذكاء الاصطناعي، لا سيما في مجال الإفصاح. فمع ازدياد اندماج الذكاء الاصطناعي في التكنولوجيا، أصبحت فكرة إنشاء التواصل، أو على الأقل تحريره، من خلال الذكاء الاصطناعي هي القاعدة. وهذا يطرح أسئلة فريدة حول موعد الإفصاح عن المعلومات المطلوبة.

الشفافية والرقابة حسنة النية قد تكونان أصعب مما نعتقد

لقد أصبح توقع الرقابة على الذكاء الاصطناعي وشفافية عملياته من النقاط المحورية للمشرعين والمجتمع. ومع ذلك، بينما تُعد مساءلة الذكاء الاصطناعي مصدر قلق عالمي، إلا أن التكنولوجيا قد تمثل تحديات أمام تنفيذ هذه الحماية. حيث تعمل أنظمة الذكاء الاصطناعي في كثير من الأحيان كـ "صناديق سوداء"، مما يعني أن عملياتها الداخلية ليست مفهومة بسهولة أو شفافة تماماً، خاصةً عندما تتضمن ميزات مستقلة.

بالإضافة إلى ذلك، تشكل قابلية توسيع نطاق الرقابة في الوقت الحالي تحدياً كبيراً، حيث تستطيع أنظمة الذكاء الاصطناعي تقديم مخرجات أسرع وأكثر تعقيداً من التقنيات التقليدية. وقد اعتاد ممارسو العلاقات العامة على التعامل مع تحديات الشفافية الأخلاقية، إلا أن الذكاء الاصطناعي يطرح معضلة فريدة من نوعها، وهي أن تحقيق الشفافية والرقابة قد لا يكون دائماً ممكناً من الناحية التكنولوجية.

ويتطلب هذا الوضع أن يتبنى ممارسو العلاقات العامة نهجاً أكثر استباقية وشفافية عند شرح كيفية استخدام مؤسساتهم للذكاء الاصطناعي، لا سيما في عملهم وتفاعلاتهم مع الجمهور. ومن المرجح أن تنشأ قضايا جديدة تتعلق بالشفافية بما في ذلك كيفية التواصل باستخدام الذكاء الاصطناعي الذي يمكن أن يوصل شفافية محدودة، مما قد يؤدي إلى زعزعة ثقة الجمهور، وفي حالات مؤسفة، تسهيل التضليل.

إن تجزئة اللوائح التنظيمية للذكاء الاصطناعي وسرعة تطورها يترك ممارسي العلاقات العامة في حيّز أخلاقي مجهول. وقد لا تكون النتيجة مزيداً من القوانين أو المبادئ التوجيهية، بل قد تتجلى في تبني مستقبل غامض.

وسيتعين على المؤسسات أن تكون أكثر استقراءً لدورها كجهات راعية لثقة الجمهور. وربما تتطلب الشفافية في تكنولوجيا الذكاء الاصطناعي اعتراف ممارسي العلاقات العامة بنقص الإجابات. وهذا يعني أن الروابط التي تتمحور حول الإنسان والتي تؤكد على المصداقية قد تكون أكثر أهمية، لأن نظام حوكمة الذكاء الاصطناعي الخالي من العيوب أمر غير قابل للتحقيق. ومع الوتيرة المتسارعة للابتكار، سيلعب ممارسو العلاقات العامة دوراً لا غنى عنه في تحقيق التوازن بين الطابع الإنساني والإمكانات والقدرات الهائلة للذكاء الاصطناعي.

أنشأتIPRAفرعاً خاصاً بالذكاء الاصطناعي ووضعت مجموعة من المبادئ التوجيهية "الذكاء الاصطناعي في العلاقات العامة".

author

المؤلف كايس مايرزCayce Myers

كايس مايرز، دكتوراه في القانون، ماجستير في القانون، دكتوراه في القانون العام، دكتوراه في العلاقات العامة. وهو مؤلف لسبعة كتب، من بينها كتاب "الذكاء الاصطناعي والقانون في مهنة الاتصال"، المقرر نشره في عام 2025.

https://www.ipra.org/news/itle/itl-613-artificial-intelligence-and-public-relations-legal-ethical-and-communication-trends-for-2025/

ترجمة وتدقيق صَبَا إبراهيم سعيد

تحذير واجب.

لا يحق نشر أي جزء من منشورات ميديا & PR، أو اختزان مادته بطريقة الاسترجاع، أو نقله على أي نحو، سواء إلكترونياً أو ميكانيكياً أو خلاف ذلك دون الاشارة الى المصدر، تحت طائلة المساءلة القانونية

يرجى التواصل لطلب إذن الاستخدام:

info@ipra-ar.org


Follow IPRA:

اتصل بنا

Mobile1 : +961-70043459
Mobile2 : +963-116122067
Fax :+963-0116117020
Email :ingo@ipra-ar.org