دليل أخلاقيات الذكاء الاصطناعي في الجامعة
رئاسة الجامعة / لجنة أخلاقيات استخدام الذكاء الاصطناعي
نطاق التطبيق: جميع تشكيلات الجامعة (التعليم، البحث، الإدارة، الخدمات)
1) الغرض
يهدف هذا الدليل إلى بيان كيفية الاستخدام المسؤول للذكاء الاصطناعي من قبل الطلبة والباحثين بما يضمن:
حماية حقوق الإنسان وكرامته وضمان الخصوصية والعدالة
تعزيز الثقة والشفافية وإدارة المخاطر
دعم جودة التعليم والنزاهة الأكاديمية
2) التعاريف
الذكاء الاصطناعي (AI)
أنظمة/ برمجيات قادرة على محاكاة السلوك والذكاء البشري في اتخاذ القرارات ورفع التوصيات إلى أصحاب القرار. تقوم بتحليل البيانات المُدخَلة وفق نماذج رياضية مدرَّبة مسبقًا، لتُنتج مخرجات متنوعة كالنصوص والصور والتوصيات، بهدف دعم أصحاب القرار لا الحلول محلهم.
الذكاء الاصطناعي التوليدي (GenAI)
نوع متطور من الذكاء الاصطناعي يستند بعمله على الشبكات العصبية والتعلم العميق لإنشاء محتوى جديد ومبتكر (نصوص، صور، أكواد) لتعزيز الكفاءة وزيادة الإبداع والإنتاجية.
بيانات حسّاسة
بيانات شخصية/أكاديمية/صحية/مالية/عناوين/أرقام هويات/صور… أو أي بيانات قد تسبب ضررًا عند تسريبها.
3) مبادئ أخلاقية حاكمة
تعتمد المبادئ التالية بوصفها أساس السياسات والإجراءات في مجال الذكاء الاصطناعي:
احترام الحقوق والكرامة
- يجب أن يكون الاستخدام إنسانيًا وهادفًا ويتجنب الضرر والمساس بكرامة الآخرين والتجاوز على حقوقهم.
الشفافية والإفصاح
- الإفصاح عن استخدام الذكاء الاصطناعي عند إعداد محتوى تعليمي/بحثي/إداري متى كان ذلك جوهريًا لفهم العمل أو تقييمه.
- توضيح حدود الأداة واحتمالات الخطأ (هلوسة/معلومات غير دقيقة).
الخصوصية وحماية البيانات
- منع إدخال وتداول البيانات الحساسة.
- الالتزام بالتشريعات وسياسات أمن المعلومات.
العدالة وعدم التحيّز
- الانتباه من احتمالية تحيز البيانات أو النتائج (تمييز/إقصاء).
- فحص وتدقيق المخرجات والتأكد من صحتها عند استخدامها في قرارات تمس الأفراد.
المسؤولية البشرية
- الذكاء الاصطناعي أداة مساعدة وليست بديلًا عن القرار البشري.
- المسؤولية الأخلاقية والقانونية تقع على المستخدم أولاً.
النزاهة الأكاديمية وسلامة البحث
- منع الانتحال والغش.
- الإفصاح وتوثيق أماكن ومجالات استخدام الذكاء الاصطناعي في البحوث العلمية.
4) المسؤوليات العامة
المستخدم
(الطالب/ التدريسي/ الإداري): يتحقق من صحة المخرجات، وحماية البيانات والإفصاح عن أماكن استخدام أدوات الذكاء الاصطناعي.
الجامعة
نشر الوعي والثقافة في كيفية استخدام الذكاء الاصطناعي وتحديد الأدوات المعتمدة من خلال الورش والدورات وتشكيل اللجان المختصة، إضافة إلى توفير الدعم المالي ووضع الضوابط الانضباطية.
5) قواعد وسياسات الاستخدام
5.1 يُمنع تغذية أدوات الذكاء الاصطناعي بما يلي:
- ✕ بيانات الطلبة والموظفين (مثل: هويات، أرقام، ملفات، درجات).
- ✕ البيانات البحثية غير المنشورة.
- ✕ البيانات الخاضعة لاتفاقيات سرية أو الملكية الفكرية.
- ✕ المعلومات والبيانات الطبية/ الصحية/ المالية دون استحصال الأذونات الرسمية.
5.2 يُسمح باستخدام ما يلي:
- ✓ النصوص والبيانات العامة غير الحساسة لأغراض التلخيص والتدقيق مع مراعاة عدم تضمين البيانات التعريفية.
- ✓ استخدام أدوات الذكاء الاصطناعي داخل بيئات محكمة ومعتمدة من الجامعة أو المؤسسة.
5.3 الحد الأدنى من البيانات
استخدم الحد الأدنى من البيانات قدر الممكن لتحقيق الهدف المطلوب مع مراعاة "التجريد" (إزالة البيانات التعريفية).
6) سياسة النزاهة الأكاديمية
6.1 إطار عام
- ● يُسمح باستخدام الذكاء الاصطناعي للتعلّم وتحسين المهارات (شرح، تدريب، تلخيص) ضمن الضوابط المعتمدة.
- ● يُمنع استخدام الذكاء الاصطناعي للغش والانتحال والتجاوز على الحقوق.
- ● يُمنع تقديم مخرجات ونتائج وهمية جاهزة للنتاجات البحثية.
6.2 أمثلة عملية
✓ مسموح
- شرح فكرة ثم كتابة الحل بأسلوب الطالب.
- تدقيق لغوي لنص الطالب.
- توليد أسئلة تدريبية للمراجعة.
- تلخيص المراجع والمصادر وإعداد مخطط محاضرة بشرط المراجعة العلمية.
- توجيه الطلبة لاستخدام أدوات الذكاء الاصطناعي للتعلم كأدوات مساعدة مع الإفصاح.
✗ ممنوع
- حل امتحان/ واجب وتسليم النتائج.
- توليد بحوث كاملة أو أجزاء أساسية منها دون معالجة وتدقيق.
- انتحال (نسخ ولصق) من مخرجات الذكاء الاصطناعي دون توثيقها.
- استخدام أدوات الذكاء الاصطناعي في الامتحانات الحضورية/ الإلكترونية.
- الاعتماد على الذكاء الاصطناعي لاتخاذ القرارات النهائية وتحديد الدرجات دون مراجعة.
6.4 الإجراءات التأديبية
7) سياسة البحث العلمي والنشر
هذه السياسة تتوافق مع توجيهات النشر العلمي الحديثة والشائعة:
لا يمكن اعتبار أدوات الذكاء الاصطناعي بديلاً عن الباحث والمؤلف.
يُطلب الإفصاح عن استخدام أدوات الذكاء الاصطناعي وكيفية استخدامها.
8) تصنيف مخاطر الاستخدام حسب الحساسية
منخفض
تلخيص نص عام، تدقيق لغوي
متوسط
دعم قرار إداري غير مصيري، اقتراحات تعليمية
مرتفع
أي استخدام يؤثر على حقوق/فرص أشخاص (تقييم، قبول، منح) أو بيانات حساسة
9) التدريب والتوعية
تلتزم الجامعة بتنظيم ورش عمل ودورات تعريفية دورية لأعضاء هيئة التدريس والطلبة والموظفين حول الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي:
التعريف بالمبادئ الأخلاقية والسياسات المعتمدة في الجامعة.
التوعية بمخاطر الخصوصية وأمن المعلومات والتحيز الخوارزمي.
توضيح ضوابط النزاهة الأكاديمية والإفصاح عن استخدام أدوات الذكاء الاصطناعي.
التدريب العملي على الاستخدام الآمن للأدوات المعتمدة.
المراجع
- UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence.
- OECD (2019, updated 2024). OECD Principles on Artificial Intelligence.
- NIST (2023). AI Risk Management Framework (AI RMF 1.0).
- ISO/IEC 42001:2023. Artificial Intelligence Management System (AIMS).
- COPE. Guidance on AI and AI-assisted technologies in research and publication.
- ICMJE (2023). Recommendations for Scholarly Work.
- WAME. Recommendations on Chatbots and Generative AI in Scholarly Publications.