صعود الذكاء الاصطناعي في التعليم
يعمل الذكاء الاصطناعي (AI) على تغيير التعليم. لقد أصبح جزءًا لا يتجزأ من التعليم الحديث. من الدروس الخصوصية إلى المساعدة في الكتابة ، يلجأ الطلاب في جميع أنحاء العالم إلى أدوات الذكاء الاصطناعي للطلاب مثل ChatGPT لتوفير الوقت وتحسين الأداء الأكاديمي. أصبحت أدوات الذكاء الاصطناعي من العناصر الأساسية في الحياة الطلابية. ولكن مع نمو استخدامها ، تزداد أيضًا أسئلة حول الشرعية والأخلاق والسياسات المؤسسية. ومع ذلك ، مع تطور هذه الأدوات ، تزداد الأسئلة حول شرعيتها وأخلاقياتها وسياساتها التعليمية أكثر تعقيدًا.
هل من القانوني استخدام النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي؟ هل يمكن للجامعات اكتشافه؟ ما هي أفضل الممارسات للطلاب؟ تستكشف هذه المقالة المشهد المتطور للذكاء الاصطناعي في التعليم ، مع التركيز على الأطر القانونية والسياسات الجامعية والمشورة العملية للطلاب الذين يتنقلون في هذه الحدود الأكاديمية الجديدة.
هل من القانوني استخدام النص الذي يولده الذكاء الاصطناعي؟
الإجابة المختصرة: نعم ، استخدام النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي قانوني ، لكن استخدامه الأكاديمي يخضع لقواعد مؤسسية. لا توجد قوانين تحظر بشكل مباشر استخدام أدوات مثل ChatGPT للأغراض الأكاديمية. ومع ذلك ، فإن الشرعية والنزاهة الأكاديمية ليسا نفس الشيء. تضع الجامعات سياسة الذكاء الاصطناعي الخاصة بها في التعليم ، والتي تحدد ما إذا كان استخدام هذه الأدوات يتماشى مع القواعد المؤسسية.
تتوقف الشرعية على حقوق النشر الأوسع وأطر النزاهة الأكاديمية. يفتقر المحتوى الذي يولده الذكاء الاصطناعي عادةً إلى حماية حقوق الطبع والنشر ما لم يتم تعديله بشكل كبير من قبل الإنسان. ومع ذلك ، فإن استخدام مثل هذا المحتوى في التقديمات الأكاديمية دون إفشاء يمكن أن ينتهك سياسات الجامعة.
على سبيل المثال ، بينما يمكنك استخدام الذكاء الاصطناعي بشكل قانوني لصياغة المقالات أو تلخيص المقالات أو أفكار العصف الذهني ، فإن تقديم محتوى مكتوب بالذكاء الاصطناعي لأن عملك الخاص دون إفصاح قد ينتهك قوانين النزاهة الأكاديمية. هذا هو السبب في أن فهم سياسة جامعة ChatGPT الخاصة بمدرستك أمر بالغ الأهمية.
توضح مراجعة حديثة نُشرت في مجلة Frontiers in Artificial Intility (الذكاء الاصطناعي) التحديات القانونية للكتابة بمساعدة الذكاء الاصطناعي ، بما في ذلك المخاوف بشأن التأليف والأصالة والاستخدام الأخلاقي. في حين أن القانون لا يحظر استخدام الذكاء الاصطناعي ، قد تتعامل الجامعات مع مساعدة الذكاء الاصطناعي غير المعلنة على أنها سرقة أدبية.
مثال:
استخدم طالب في إحدى الجامعات الأمريكية ChatGPT لكتابة ورقة بحث كاملة. على الرغم من أن الصحيفة لم يتم تمييزها على أنها سرقة أدبية ، فقد تمت معاقبة الطالب على "تحريف التأليف". لم تكن المشكلة في ما كتبوه ، بل من كتبه.
سياسة الذكاء الاصطناعي التوليدية: ماذا تعني وما تقوله الجامعات
سياسة الذكاء الاصطناعي التوليدية هي مجموعة من الإرشادات التي تنشئها الجامعات أو المؤسسات لتحديد متى وكيف ، وإلى أي مدى يمكن للطلاب استخدام أدوات الذكاء الاصطناعي. لا تزال هذه السياسات تتطور ، لكن معظمها يؤكد الشفافية والمساءلة. تعمل الجامعات على تطوير سياسات الذكاء الاصطناعي التوليدية بسرعة لمعالجة الآثار الأكاديمية لأدوات مثل ChatGPT.
تختلف هذه السياسات على نطاق واسع:
- تسمح بعض المؤسسات بأدوات الذكاء الاصطناعي للعصف الذهني أو الفحوصات النحوية ، لكنها تحظر استخدامها لإنشاء مقال كامل.
- يطلب الآخرون إفصاحًا صريحًا إذا تم استخدام أدوات الذكاء الاصطناعي في أي جزء من الواجب.
على سبيل المثال ، تشجع جامعة ستانفورد الاستخدام المسؤول للذكاء الاصطناعي ولكنها تحذر من الاعتماد المفرط. يسمح معهد ماساتشوستس للتكنولوجيا بأدوات الذكاء الاصطناعي للترميز ولكن ليس لكتابة المهام ما لم يكن مسموحًا بذلك. تعكس هذه السياسات المتطورة جهدًا أوسع لتحقيق التوازن بين الابتكار والنزاهة الأكاديمية.
تشمل العناصر المشتركة لسياسة الذكاء الاصطناعي التوليدية ما يلي:
- الإفصاح: يجب على الطلاب تحديد متى استخدموا مساعدة الذكاء الاصطناعي.
- حالات الاستخدام المسموح بها: غالبًا ما يُسمح بالعصف الذهني للأفكار أو التحرير أو التلخيص.
- الاستخدامات المحظورة: تقديم أعمال مكتوبة بالذكاء الاصطناعي بالكامل أو توليد بيانات ملفقة.
بعض المدارس تفرق بين العمل بمساعدة الذكاء الاصطناعي والذكاء الاصطناعي. الأول مقبول عادة مع الاعتراف المناسب ؛ والثاني يعتبر سوء سلوك.
هل يُسمح بـ ChatGPT في الجامعات الشهيرة؟
ما إذا كان الدردشة المسموح بها في الكلية يعتمد على المؤسسة. فيما يلي لمحة سريعة عن السياسات الحالية:
- تسمح سياسة الذكاء الاصطناعي في هارفارد بالاستخدام المحدود لأدوات الذكاء الاصطناعي التوليدية لمهام محددة ، مثل توليد الأفكار أو تحسين اللغة ، ولكنها تتطلب من الطلاب الاستشهاد باستخدامهم. تؤكد الجامعة على الشفافية والصدق الأكاديمي. تشجع جامعة هارفارد "الاستكشاف المسؤول" لأدوات الذكاء الاصطناعي لكنها تحذر من استخدامها لاستبدال الفكر الأصلي. يمكن للطلاب استخدام ChatGPT للبحث الأولي أو توليد الأفكار إذا استشهدوا باستخدامه بشفافية.
- جامعة كاليفورنيا ، بيركلي تسمح بأدوات الذكاء الاصطناعي لمهام معينة ولكنها تحظرها في الامتحانات والأوراق النهائية.
- تبنى ييل وبرينستون مقاربات حذرة ، وغالبًا ما تترك قرارات لأساتذة أفراد.
- ستانفورد : تنص إرشادات الجامعة على أنه يمكن استخدام أدوات الذكاء الاصطناعي "طالما أن المعلم يسمح باستخدامها صراحة". تحظرها بعض الإدارات بالكامل ، بينما يدمج البعض الآخر الذكاء الاصطناعي كجزء من الدورات الدراسية.
- MIT : يتمتع المعلمون بحرية تحديد كيفية استخدام الذكاء الاصطناعي في الفصل. في بعض الدورات الفنية ، يتم تشجيع ChatGPT للمساعدة في الترميز ، ولكن ليس لكتابة المقالات.
توضح هذه الأمثلة أن الدردشة في الجامعات ليست محظورة عالميًا ، ولكن يجب أن يتماشى استخدامها مع الإرشادات الخاصة بالدورة التدريبية. توضح هذه الاختلافات أن ChatGPT في الجامعات ليست مقبولة أو مرفوضة عالميًا ، فهي تعتمد على الدورة التدريبية والمدرس والغرض.
سياسات الذكاء الاصطناعي في التعليم: المبادئ التوجيهية والاتجاهات
تم تصميم سياسات الذكاء الاصطناعي الحديثة في التعليم لتحقيق التوازن بين الابتكار والأخلاق. تتفق معظم المؤسسات على أن الذكاء الاصطناعي يمكن أن يحسن التعلم عند استخدامه بمسؤولية ولكن يمكن أيضًا أن يهدد الصدق الأكاديمي إذا أسيء استخدامه.
تشمل الإرشادات النموذجية:
- الشفافية: الإفصاح دائمًا عن استخدام الذكاء الاصطناعي.
- الإحالة: تعامل مع مخرجات الذكاء الاصطناعي كمصدر مرجعي.
- التقييم النقدي: لا تقبل أبدًا إجابات الذكاء الاصطناعي في ظاهرها ، تحقق من الحقائق.
- الرقابة البشرية: يجب أن يدعم الذكاء الاصطناعي ، وليس استبداله ، عملية تفكيرك.
مثال:
يسمح الأستاذ باستخدام ChatGPT لتبادل الأفكار. ومع ذلك ، يجب على الطلاب إضافة تحليلهم الخاص وتضمين ملاحظة مثل:
"تم استخدام ChatGPT لإنشاء أفكار موضوعية أولية ، والتي تم تنقيحها وتوسيعها من قبل المؤلف."
وهذا يضمن أن الذكاء الاصطناعي يعمل كشريك تعليمي وليس بديلاً.
تتضمن معظم الجامعات الآن سياسة الذكاء الاصطناعي في التعليم كجزء من أطر النزاهة الأكاديمية. تشمل العناصر المشتركة:
- متطلبات الإفصاح : يجب على الطلاب تحديد متى وكيف تم استخدام أدوات الذكاء الاصطناعي.
- الاستخدامات المحظورة : غالبًا ما يُحظر إنشاء مهام كاملة أو تجاوز أهداف التعلم.
- تقدير المدرب : يمكن للأساتذة وضع قواعدهم الخاصة لاستخدام الذكاء الاصطناعي في دوراتهم.
تهدف هذه الإرشادات إلى تعزيز الاستخدام المسؤول مع الحفاظ على قيمة التعلم البشري.
أفضل الممارسات للطلاب الذين يستخدمون ChatGPT
للبقاء في الجانب الآمن ، يجب على الطلاب اتباع أفضل الممارسات لاستخدام ChatGPT وأدوات كتابة الذكاء الاصطناعي الأخرى:
- تحقق دائمًا من سياسة الذكاء الاصطناعي لمدرستك . تحدد كل مؤسسة الاستخدام المقبول بشكل مختلف.
- كشف مساعدة الذكاء الاصطناعي. حتى لو كان الأمر يتعلق فقط بالتحقق من القواعد النحوية أو الملخصات ، فإن الشفافية تبني الثقة.
- تحرير وتخصيص مخرجات الذكاء الاصطناعي. أعد الكتابة والتوسع وإضافة رؤيتك الفريدة.
- تجنب الاعتماد الواقعي. قد ينتج ChatGPT معلومات قديمة أو غير صحيحة. تحقق دائمًا من المصادر.
- استخدم الذكاء الاصطناعي كمكمل . فكر في الأمر كمدرب كتابة وليس كاتب أشباح.
- الإفصاح دائمًا عن استخدام الذكاء الاصطناعي في المهام ، حتى لو كان ذلك فقط لتصحيح القواعد.
- استخدم أدوات الذكاء الاصطناعي للعصف الذهني أو تحديد الأفكار أو صقلها ، وليس لكتابة مقالات كاملة.
- الحقائق التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، يمكن أن تهلوس أو تقديم معلومات قديمة.
- افهم سياسة جامعتك المحددة ، لا تفترض أن ما هو مسموح به ينطبق عليك في مكان آخر.
مثال 1:
يستخدم الطالب ChatGPT لتخطيط مقال في علم النفس ، ثم يبحث في كل نقطة ويكتب المسودة النهائية بشكل مستقل. النتيجة؟ سير عمل أسرع وتعلم حقيقي ، دون المخاطرة بالعقوبات الأكاديمية.
مثال 2:
استخدم طالب في جامعة نيويورك ChatGPT لصياغة ورقة بحثية لكنه فشل في الكشف عنها. قام الأستاذ بتشغيل النص من خلال أداة للكشف عن الانتحال بالذكاء الاصطناعي وعلمه ، مما أدى إلى اتخاذ إجراءات تأديبية.
المزالق الشائعة التي لا تزال تجعل الطلاب في مأزق
حتى الطلاب ذوي النوايا الحسنة يمكن أن يتعثروا في المشاكل. فيما يلي بعض الأخطاء التي غالبًا ما تؤدي إلى اتخاذ إجراء تأديبي:
- إرسال نص الذكاء الاصطناعي دون تحرير : يمكن للأساتذة التعرف على اللغة المعادلة أو الأمثلة خارج الموضوع.
- تجاهل قواعد الاقتباس : يمكن أن يؤدي التعامل مع الذكاء الاصطناعي على أنه غير مرئي إلى انتهاك سياسات الاستشهاد. يتم التعامل مع عدم الاستشهاد بالذكاء الاصطناعي على أنه خيانة أكاديمية.
- استخدام الذكاء الاصطناعي أثناء الامتحانات أو الاختبارات المنزلية : تنظر معظم المدارس في هذه المساعدة غير المصرح بها. عادة ما يكون محظورًا.
- الاعتماد المفرط على أدوات إعادة الصياغة : حتى نص الذكاء الاصطناعي المعاد صياغته يمكن أن يؤدي إلى كشف الانتحال. يمكن أن يؤدي إلى عمل عام منخفض الجودة.
استخدم أحد الطلاب في إحدى جامعات الغرب الأوسط ChatGPT للإجابة على أسئلة الامتحان المنزلي. لاحظ الأستاذ تناقضات أسلوبية واستخدم برامج الكشف لتأكيد مشاركة الذكاء الاصطناعي. واجه الطالب التعليق لانتهاكه قواعد النزاهة الأكاديمية لـ ChatGPT.
إذا لم تكن متأكدًا، اسأل مدرسك مباشرةً عن المستوى المسموح به لدعم الذكاء الاصطناعي.
هل يمكن للجامعات اكتشاف النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي؟
هذه واحدة من أكثر الاهتمامات شيوعًا. الجواب المختصر: في بعض الأحيان ، نعم ، ولكن ليس دائمًا. يمكن للجامعات اكتشاف النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ، على الرغم من أن الاكتشاف ليس مضمونًا. تستخدم الجامعات أدوات الكشف عن الانتحال بالذكاء الاصطناعي مثل Turnitin's AI Detector أو GPTZero لتحديد النص المحتمل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. تقوم الأدوات بتحليل الأنماط اللغوية وبنية الجملة ونماذج الاحتمالات لوضع علامة على المحتوى المكتوب بالذكاء الاصطناعي.
ومع ذلك ، فإن هذه الأنظمة ليست مثالية. إنهم يعتمدون على الأنماط اللغوية ، وإمكانية التنبؤ بالجملة ، والتكرار ، والبنية التي قد تشبه ناتج الذكاء الاصطناعي ولكن يمكن أن تظهر أيضًا في الكتابة البشرية. يمكن أن تنتج هذه الأدوات إيجابيات كاذبة أو تفوتك نصًا تحريريًا للذكاء الاصطناعي تم تحريره جيدًا. لهذا السبب تستخدم العديد من الجامعات أدوات الكشف كجزء من عملية مراجعة أوسع ، وليس كدليل قاطع.
لذلك ، بينما يمكن للجامعات اكتشاف النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي هو سؤال صالح ، فإن الاكتشاف احتمالي وليس حاسمًا. يمكن أن تحدث إيجابية خاطئة إذا كتب الطالب بأسلوب منظم أو رسمي ، في حين أن بعض المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي قد يتجاوز الاكتشاف إذا تمت إعادة صياغته أو تحريره بعناية.
يجب على الطلاب تجنب اختبار الحدود ، فالغش بالذكاء الاصطناعي في الكلية يعد جريمة خطيرة ، حتى لو لم يكن الاكتشاف مضمونًا. ركز على الاستخدام الشفاف بدلاً من التهرب! تتبنى الجامعات مناهج متنوعة لشرعية النص الذي يولده الذكاء الاصطناعي واستخدامه. على الرغم من عدم وجود معيار فيدرالي ، فقد ظهرت العديد من الاتجاهات:
- التشجيع بالحدود: تشجع المدارس التجارب المسؤولة مع الذكاء الاصطناعي.
- تقدير المعلم: يقرر الأساتذة الأفراد ما إذا كان الذكاء الاصطناعي مسموحًا به.
- التركيز على الأخلاق: تؤكد الجامعات على الإبداع البشري والأصالة.
على سبيل المثال ، تنص سياسة الذكاء الاصطناعي لعام 2024 بجامعة ميشيغان على: من الواضح أن المحتوى يُنسب. "
وفي الوقت نفسه ، يحذر نظام جامعة كاليفورنيا من أن استخدام الذكاء الاصطناعي لـ" استبدال جهد الطلاب "يشكل سوء سلوك.
- لدى جامعة ميشيغان سياسة واضحة تحظر التقديمات التي تم إنشاؤها بواسطة الذكاء الاصطناعي ما لم يكن مسموحًا بها صراحة.
- تشجع جامعة كولومبيا الاستخدام الأخلاقي وتوفر ورش عمل حول محو الأمية بالذكاء الاصطناعي.
- تدمج جامعة ولاية أريزونا أدوات الذكاء الاصطناعي في مناهجها لكنها تؤكد على الإشراف البشري.
تعكس قواعد الجامعة هذه الخاصة بالذكاء الاصطناعي اعترافًا متزايدًا بأن الذكاء الاصطناعي موجود ليبقى ، ولكن يجب استخدامه بمسؤولية.
أدوات الذكاء الاصطناعي للطلاب: ما هو آمن للاستخدام؟
ليست كل أدوات الذكاء الاصطناعي محظورة. تدعم العديد من الجامعات استخدام:
- القواعد النحوية للتدقيق اللغوي
- Quillbot لإعادة الصياغة
- ChatGPT لتوليد الأفكار ومساعدة الترميز
المفتاح هو الشفافية. إذا كنت تستخدم أدوات الذكاء الاصطناعي للطلاب ، فتأكد من أن أستاذك يعرف ويوافق.
الغش في الذكاء الاصطناعي في الكلية: الأساطير مقابل الواقع
"غش الذكاء الاصطناعي" هي كلمة طنانة غالبًا ما يُساء فهمها. استخدام الذكاء الاصطناعي ليس غشًا تلقائيًا: فهو يعتمد على النية والإفصاح.
الأسطورة : كل استخدامات الذكاء الاصطناعي تساوي الكذب الأكاديمي.
الواقع: يشجع العديد من الأساتذة العصف الذهني أو التحرير بمساعدة الذكاء الاصطناعي.
الأسطورة : أدوات الكشف عن الذكاء الاصطناعي مضمونة.
الواقع : غالبًا ما يخطئون في تصنيف عمل الطلاب الشرعي.
الأسطورة : الطلاب الكسالى فقط هم من يستخدمون ChatGPT.
الواقع: يستخدمه الكثيرون للإنتاجية والوضوح ودعم البحث.
يساعد التعرف على هذه الفروق الدقيقة الطلاب والمعلمين على التعامل مع الذكاء الاصطناعي كأداة وليس تهديدًا.
دمج الذكاء الاصطناعي في التعليم أمر لا مفر منه. بينما تقوم الجامعات بتحسين سياسة الذكاء الاصطناعي الخاصة بها في التعليم ، يجب على الطلاب التكيف مع المعايير الجديدة للشفافية والتأليف ومحو الأمية الرقمية. سيستمر تطور الخط الفاصل بين المساعدة المقبولة وسوء السلوك ، لكن مبدأ واحد يظل ثابتًا: الصدق.
من خلال فهم سياسة هارفارد للذكاء الاصطناعي ، وسياسة الذكاء الاصطناعي التوليدية ، وقواعد الجامعة الأوسع للذكاء الاصطناعي ، يمكن للطلاب استخدام هذه التقنيات لتعزيز ، وليس استبدال ، رحلة التعلم الخاصة بهم.
لا يتعين على الذكاء الاصطناعي أن يهدد النزاهة الأكاديمية ، بل يمكن أن يقويها عند استخدامها بحكمة.
التنقل في استخدام الذكاء الاصطناعي في الأوساط الأكاديمية
يعيد الذكاء الاصطناعي تشكيل التعليم ، ويقدم أدوات قوية للتعلم والإبداع. ولكن مع القوة العظيمة تأتي مسؤولية كبيرة. يجب على الطلاب فهم سياسة جامعة ChatGPT في مؤسستهم ، واتباع أفضل الممارسات ، وتجنب المزالق الشائعة.
سواء كنت في جامعة هارفارد أو كلية مجتمع ، فإن الرسالة واضحة: يمكن للذكاء الاصطناعي أن يعزز تعليمك ، ولكن فقط إذا تم استخدامه بشكل أخلاقي وشفاف.
من القانوني بشكل عام استخدام النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، ولكن لدى الجامعات سياسات مختلفة بشأن استخدامها الأكاديمي. يجب على الطلاب اتباع الإرشادات المؤسسية لتجنب سوء السلوك الأكاديمي. نشرت جامعة هارفارد وجامعات كبرى أخرى سياسات الذكاء الاصطناعي التي توضح الاستخدام المقبول ، وتتطور أدوات الكشف بسرعة.