سياسة استخدام الذكاء الاصطناعي

في مجلة الدراسات والبحوث القانونية، نُدرك الدور المتنامي للذكاء الاصطناعي في البحث والكتابة الأكاديمية. ونعتبر هذه الأدوات أدوات قيّمة تُساعد الباحثين على استكشاف الأفكار، وتسريع عملية الاكتشاف، وتحليل النتائج، وتحسين اللغة، وتنظيم مخطوطاتهم بفعالية أكبر.

يمكن لنماذج اللغة الكبيرة (LLMs) وأدوات الذكاء الاصطناعي التوليدي أن تُحسّن سير العمل البحثي بشكل كبير، ولكنها لا تُغني عن الإبداع البشري، أو الحكمة، أو التفكير النقدي. تهدف سياستنا المتعلقة بالذكاء الاصطناعي إلى مساعدة المؤلفين والمراجعين والمحررين على اتخاذ قرارات مدروسة وأخلاقية عند استخدام هذه التقنيات.

_______________________________________

للمؤلفين

الذكاء الاصطناعي كأداة دعم

نُدرك أن العديد من المؤلفين يستخدمون الآن أدوات الذكاء الاصطناعي لتحسين كتاباتهم. تُعتبر الأدوات التي تُساعد على تحسين القواعد، أو الأسلوب، أو الوضوح، أو البنية - مثل مُحسّنات اللغة - ذكاءً اصطناعيًا مُساعدًا. ولا تتطلب هذه الأدوات إفصاحًا رسميًا. ومع ذلك، يظل المؤلفون مسؤولين مسؤولية كاملة عن دقة وأصالة ونزاهة أبحاثهم.

استخدام الذكاء الاصطناعي التوليدي

في حال استخدام أداة ذكاء اصطناعي لإنشاء أي جزء من المحتوى - مثل صياغة نص، أو توليد مراجع، أو إنتاج صور - فيجب الإفصاح عن ذلك صراحةً في طلب التقديم. يجب على المؤلفين دائمًا الاستشهاد بمصادر أصلية قابلة للتحقق بدلًا من الإشارة إلى أداة الذكاء الاصطناعي نفسها.

في حال استخدام الذكاء الاصطناعي في توليد جزء كبير من المخطوطة، يجب الإشارة إلى ذلك أثناء التقديم ليتمكن فريق التحرير من تقييم الآثار المترتبة. يجب على المؤلفين الذين يستخدمون الذكاء الاصطناعي بهذه الطريقة:

  • توضيح أداة أو نموذج الذكاء الاصطناعي المستخدم والغرض منه (في قسم المنهجية أو قسم الشكر والتقدير).
  • التحقق بدقة من جميع المحتوى المُولّد بواسطة الذكاء الاصطناعي للتحقق من دقته، والاستشهادات المناسبة، والتحيزات أو الأخطاء المحتملة.
  • التأكد من عدم وجود أي انتحال أدبيّ من خلال مقارنة المحتوى المُولّد بالمصادر الأصلية.
  • تجنب الاستشهادات أو المعلومات المُزيّفة، والتحقق من صحة كل ادعاء قبل التقديم.

ملاحظة هامة:

  • لا يجب إدراج أدوات الذكاء الاصطناعي مثل ChatGPT ضمن قائمة المؤلفين. مع أن استخدام الذكاء الاصطناعي ليس سببًا للرفض التلقائي، إلا أن عدم الإفصاح عن استخدامه - أو استخدامه بشكل غير مسؤول (مثل تقديم محتوى زائف أو مسروق) - قد يؤدي إلى الرفض في أي مرحلة من مراحل عملية التحرير.

_______________________________________

للمراجعين والمحررين

يثير استخدام أدوات الذكاء الاصطناعي في العمل التحريري مخاوف بشأن السرية والملكية الفكرية. يتعلم العديد من طلاب الماجستير في القانون من مدخلات المستخدمين، وقد يعيدون استخدام محتوى سري دون قصد.

مساعدة الذكاء الاصطناعي للمراجعين

قد يستخدم المراجعون الذكاء الاصطناعي لتحسين وضوح أو هيكلية مراجعتهم، لكنهم لا يزالون مسؤولين عن ضمان دقة المحتوى وبنّاءته وأصالة محتواه.

للمحررين

المحررون مسؤولون عن سلامة محتوى المجلة. يمكنهم استخدام أدوات الذكاء الاصطناعي للمساعدة في المهام الإدارية، مثل البحث عن مراجعين محتملين، ولكن يجب عليهم عدم استخدام أدوات الذكاء الاصطناعي مثل ChatGPT لكتابة القرارات التحريرية أو ملخصات الأعمال غير المنشورة.

________________________________________

استخدام الذكاء الاصطناعي بشكل غير لائق أو غير مُفصح عنه

إذا اشتبه مُراجع أو مُحرر في استخدام الذكاء الاصطناعي بشكل غير لائق أو غير مُفصح عنه في مُقدمة أو مراجعة، فعليه إبلاغ فريق التحرير. ستُجري مجلة الدراسات والبحوث القانونية، بالتعاون مع هيئتها التحريرية، تحقيقًا في مثل هذه المخاوف وفقًا لإرشادات لجنة أخلاقيات النشر (COPE) وسياساتنا الداخلية.

-----------------------

معلومات إضافية

أخلاقيات النشر وسوء السلوك

كشف الانتحال/التشابه