المسؤولية الأكاديمية
الشفافية والإفصاح
- توثيق جميع أدوات الذكاء الاصطناعي المستخدمة في البحث
- ذكر كيفية استخدام الأداة ومخرجاتها
- تحديد أجزاء العمل المولدة بالذكاء الاصطناعي
- تضمين قسم خاص في البحث يوضح دور الذكاء الاصطناعي
النزاهة الأكاديمية
- عدم تقديم مخرجات الذكاء الاصطناعي كعمل شخصي خالص
- الالتزام بسياسات الجامعة حول الانتحال
- التحقق من صحة المعلومات المقدمة من أدوات الذكاء الاصطناعي
- استخدام الذكاء الاصطناعي كأداة مساعدة وليس بديلاً
العدالة وعدم التحيز
- مراجعة مخرجات الذكاء الاصطناعي للكشف عن التحيزات
- استخدام مصادر متنوعة للتحقق
- الوعي بالقيود الثقافية واللغوية لأدوات الذكاء الاصطناعي
- ضمان تمثيل عادل في البيانات المستخدمة
الخصوصية وحماية البيانات
- عدم مشاركة البيانات الشخصية الحساسة مع أدوات الذكاء الاصطناعي
- فهم سياسات الخصوصية لكل أداة
- تأمين البيانات البحثية السرية
- الالتزام بالقوانين المحلية والدولية لحماية البيانات
المسؤولية الأخلاقية
- المستخدم مسؤول عن التحقق من دقة المخرجات
- عدم الاعتماد الكلي على الذكاء الاصطناعي
- التفكير النقدي في تقييم المخرجات
- تصحيح الأخطاء والمعلومات المغلوطة
الاستدامة والتأثير
- الوعي بالبصمة الكربونية لاستخدام الذكاء الاصطناعي
- الاستخدام الفعال والمسؤول للموارد
- دعم تطوير ذكاء اصطناعي مستدام
- تعزيز الأثر الإيجابي للتقنية في المجتمع