المسؤولية الأكاديمية

الشفافية والإفصاح

  • توثيق جميع أدوات الذكاء الاصطناعي المستخدمة في البحث
  • ذكر كيفية استخدام الأداة ومخرجاتها
  • تحديد أجزاء العمل المولدة بالذكاء الاصطناعي
  • تضمين قسم خاص في البحث يوضح دور الذكاء الاصطناعي

النزاهة الأكاديمية

  • عدم تقديم مخرجات الذكاء الاصطناعي كعمل شخصي خالص
  • الالتزام بسياسات الجامعة حول الانتحال
  • التحقق من صحة المعلومات المقدمة من أدوات الذكاء الاصطناعي
  • استخدام الذكاء الاصطناعي كأداة مساعدة وليس بديلاً

العدالة وعدم التحيز

  • مراجعة مخرجات الذكاء الاصطناعي للكشف عن التحيزات
  • استخدام مصادر متنوعة للتحقق
  • الوعي بالقيود الثقافية واللغوية لأدوات الذكاء الاصطناعي
  • ضمان تمثيل عادل في البيانات المستخدمة

الخصوصية وحماية البيانات

  • عدم مشاركة البيانات الشخصية الحساسة مع أدوات الذكاء الاصطناعي
  • فهم سياسات الخصوصية لكل أداة
  • تأمين البيانات البحثية السرية
  • الالتزام بالقوانين المحلية والدولية لحماية البيانات

المسؤولية الأخلاقية

  • المستخدم مسؤول عن التحقق من دقة المخرجات
  • عدم الاعتماد الكلي على الذكاء الاصطناعي
  • التفكير النقدي في تقييم المخرجات
  • تصحيح الأخطاء والمعلومات المغلوطة

الاستدامة والتأثير

  • الوعي بالبصمة الكربونية لاستخدام الذكاء الاصطناعي
  • الاستخدام الفعال والمسؤول للموارد
  • دعم تطوير ذكاء اصطناعي مستدام
  • تعزيز الأثر الإيجابي للتقنية في المجتمع
شاركنا رأيك

شكراً لمقترحك! سيتم مراجعته من قبل اللجنة.

سيتم تحويلك إلى نموذج تفصيلي لإضافة الأداة...