로고
Blog /

교육에서 AI 탐색: 학생을 위한 합법성, 정책 및 모범 사례

교육에서 AI의 부상

인공 지능(AI)은 교육을 변화시키고 있습니다. 그것은 현대 교육의 필수적인 부분이되었습니다. 개인화된 과외에서 작문 지원에 이르기까지 전 세계의 학생들은 시간을 절약하고 학업 성취도를 향상시키기 위해 ChatGPT와 같은 학생들을 위한 AI 도구로 눈을 돌리고 있습니다. AI 도구는 학생 생활의 필수 요소가 되고 있습니다. 그러나 사용이 증가함에 따라 합법성, 윤리 및 제도적 정책에 대한 질문도 증가합니다. 그러나 이러한 도구가 발전함에 따라 합법성, 윤리 및 교육 정책에 대한 질문이 더욱 복잡해집니다.

AI 생성 텍스트를 사용하는 것이 합법입니까? 대학에서 그것을 감지할 수 있습니까? 학생들을 위한 모범 사례는 무엇입니까? 이 기사는 이 새로운 학문적 영역을 탐색하는 학생들을 위한 법적 프레임워크, 대학 정책 및 실용적인 조언에 중점을 두고 교육에서 AI의 진화하는 환경을 탐구합니다.

AI 생성 텍스트를 사용하는 것이 합법입니까?

단답: 예, AI 생성 텍스트를 사용하는 것은 합법이지만 학문적 사용은 제도적 규칙의 적용을 받습니다. 학업 목적으로 chatgpt와 같은 도구를 직접 사용하는 것을 금지하는 법률은 없습니다. 그러나 합법성과 학문적 성실성은 같은 것이 아닙니다. 대학은 이러한 도구를 사용하는 것이 제도적 규칙과 일치하는지 여부를 결정하는 교육에서 자체 AI 정책을 설정합니다.

합법성은 광범위한 저작권 및 학문적 무결성 프레임워크에 달려 있습니다. AI 생성 콘텐츠는 일반적으로 사람이 크게 수정하지 않는 한 저작권 보호가 부족합니다. 그러나 공개 없이 학술 제출에 그러한 콘텐츠를 사용하는 것은 대학 정책을 위반할 수 있습니다.

예를 들어, AI를 사용하여 에세이 초안을 작성하거나, 기사를 요약하거나, 아이디어를 브레인스토밍할 수 있지만, AI가 작성한 콘텐츠를 공개 없이 자신의 작업으로 제출하면 학업 무결성 코드를 위반할 수 있습니다. 그렇기 때문에 학교의 ChatGPT 대학 정책을 이해하는 것이 중요합니다.

Artificial Intelligence의 Frontiers에 발표된 최근 리뷰는 저자, 독창성 및 윤리적 사용에 대한 우려를 포함하여 AI 지원 글쓰기의 법적 문제를 설명합니다. 법이 AI 사용을 금지하지는 않지만 대학은 비공개 AI 지원을 표절로 취급할 수 있습니다.

예:

미국 대학의 한 학생이 ChatGPT를 사용하여 전체 연구 논문을 작성했습니다. 이 논문은 표절로 분류되지 않았지만, 학생은 "저작권의 허위 진술"로 처벌을 받았습니다. 문제는 그들이 쓴 것이 아니라 그것을 쓴 사람이었습니다.

생성 AI 정책: 그것이 의미하는 바와 대학이 말하는 것

제너티브 AI 정책은 학생들이 AI 도구를 사용할 수 있는 시기, 방법, 범위를 정의하기 위해 생성하는 일련의 지침입니다. 이러한 정책은 여전히 진화하고 있지만 대부분은 투명성과 책임성을 강조합니다. 대학은 ChatGPT와 같은 도구의 학문적 의미를 다루기 위해 생성적인 AI 정책을 빠르게 개발하고 있습니다.

이러한 정책은 매우 다양합니다.

  • 일부 기관은 브레인스토밍 또는 문법 검사를 위한 AI 도구를 허용하지만 전체 에세이 생성에 사용하는 것을 금지합니다.
  • 다른 사람들은 AI 도구가 할당의 어떤 부분에서 사용되는 경우 명시적 공개를 요구합니다.

예를 들어, Stanford University는 AI의 책임 있는 사용을 권장하지만 과도한 의존에 대해 경고합니다. MIT는 AI 도구를 코딩할 수 있지만 허용되지 않는 한 쓰기 과제에는 사용할 수 없습니다. 이러한 진화하는 정책은 혁신과 학문적 무결성의 균형을 맞추려는 광범위한 노력을 반영합니다.

제너티브 AI 정책의 일반적인 요소는 다음과 같습니다.

  • 공개: AI 지원을 사용했을 때 학생들은 반드시 명시해야 합니다.
  • 허용된 사용 사례: 아이디어 브레인스토밍, 편집 또는 요약이 종종 허용됩니다.
  • 금지 사용: 완전히 AI로 작성된 작업을 제출하거나 조작된 데이터를 생성합니다.

일부 학교에서는 AI 지원 작업과 AI 생성 작업을 구별하기도 합니다. 첫 번째는 일반적으로 적절한 승인으로 허용됩니다. 두 번째는 위법 행위로 간주될 수 있습니다.

인기 대학에서 채팅을 허용합니까?

대학에서 채팅을 허용하는지 여부는 기관에 따라 다릅니다. 다음은 현재 정책의 스냅샷입니다.

              Harvard AI 정책은 아이디어 생성 또는 언어 개선과 같은 특정 작업에 대한 생성 AI 도구의 제한된 사용을 허용하지만 학생들은 자신의 사용을 인용해야 합니다. 대학은 투명성과 학문적 정직성을 강조합니다. 하버드는 AI 도구에 대한 "책임 있는 탐색"을 권장하지만 독창적인 생각을 대체하기 위해 도구를 사용하지 말라고 경고합니다. 학생들은 투명하게 사용을 인용하는 경우 예비 연구 또는 아이디어 생성을 위해 CHATGPT를 사용할 수 있습니다.
            • University of California, BerkeleyBerkeley는 특정 과제에 대한 AI 도구를 허용하지만 시험 및 최종 논문에서는 금지합니다.
            • Yale과 Princeton은 신중한 접근 방식을 채택했으며 종종 개별 교수에게 결정을 맡깁니다.
            • Stanford: 대학의 지침에 따르면 AI 도구는 "강사가 명시적으로 사용을 허용하는 한" 사용할 수 있습니다. 일부 부서에서는 이를 완전히 금지하고 다른 부서는 AI를 교과 과정의 일부로 통합합니다.
            • MIT: 강사는 수업에서 AI를 사용하는 방법을 자유롭게 결정할 수 있습니다. 일부 기술 과정에서는 CHATGPT가 코딩 지원을 권장하지만 에세이 작성에는 권장되지 않습니다.

            이러한 예는 대학의 CHATGPT가 보편적으로 금지되지는 않지만 그 사용이 과정별 지침과 일치해야 함을 보여줍니다. 이러한 변형은 대학의 CHATGPT가 보편적으로 수용되거나 거부되는 것이 아니라 과정, 강사 및 목적에 따라 다름을 보여줍니다.

            교육의 인공 지능 정책: 지침 및 동향

            교육의 현대 인공 지능 정책은 혁신과 윤리의 균형을 맞추도록 설계되었습니다. 대부분의 기관은 AI가 책임감 있게 사용하면 학습을 향상시킬 수 있지만 오용되면 학문적 정직을 위협할 수도 있다는 데 동의합니다.

            전형적인 지침에는 다음이 포함됩니다.

            • 투명성: 항상 AI 사용을 공개합니다.
            • 속성: AI 출력을 참조된 소스로 취급합니다.
            • 비판적 평가: AI 답변을 액면 그대로 받아들이지 말고 사실을 확인하십시오.
            • 인간의 감독: AI는 당신의 사고 과정을 대체하는 것이 아니라 지원해야 합니다.

            예:

            교수는 에세이 개요를 브레인스토밍하는 데 chatgpt를 사용할 수 있도록 허용합니다. 그러나 학생들은 자신의 분석을 추가하고 다음과 같은 메모를 포함해야 합니다.

            대부분의 대학은 이제 학문적 무결성 프레임워크의 일부로 교육에 AI 정책을 포함하고 있습니다. 공통 요소는 다음과 같습니다.

            • 공개 요건: 학생들은 AI 도구가 사용된 시기와 방법을 명시해야 합니다.
            • 금지 사용: 전체 과제를 생성하거나 학습 목표를 우회하는 것은 종종 금지됩니다.
            • 강사 재량: 교수는 자신의 과정에서 AI 사용에 대한 자체 규칙을 설정할 수 있습니다.

            이 지침은 인간 학습의 가치를 보존하면서 책임 있는 사용을 촉진하는 것을 목표로 합니다.

            CHATGPT를 사용하는 학생을 위한 모범 사례

            안전한 편을 유지하려면 ChatGPT 및 기타 AI 쓰기 도구를 사용하는 모범 사례를 따라야 합니다.

            1. 항상 학교의 AI 정책을 확인합니다. 각 기관은 수용 가능한 사용법을 다르게 정의합니다.
            2. AI 지원을 공개합니다. 문법 검사나 요약을 위한 것일지라도 투명성은 신뢰를 구축합니다.
            3. AI 출력을 편집하고 개인화합니다. 고유한 통찰력을 다시 작성, 확장 및 추가합니다.
            4. 사실적 의존을 피하십시오. ChatGPT는 오래되거나 잘못된 정보를 생성할 수 있습니다. 항상 출처를 확인하십시오.
            5. AI를 보충으로 사용. 대필가가 아니라 글쓰기 코치라고 생각하세요.
            6. 문법 수정을 위한 것일지라도 항상 AI 사용을 과제에서 공개합니다.
            7. 전체 에세이를 작성하는 것이 아니라 브레인스토밍, 아이디어를 요약하거나 다듬을 때 AI 도구를 사용합니다.
            8. AI 생성 사실을 교차 확인, ChatGPT는 환각을 나타내거나 오래된 정보를 제공할 수 있습니다.
            9. 대학의 특정 정책을 이해하고 다른 곳에서 허용되는 것이 귀하에게 적용된다고 가정하지 마십시오.

            실시 1:

            한 학생이 CHATGPT를 사용하여 심리학 에세이의 개요를 설명한 다음 각 요점을 조사하고 최종 초안을 독립적으로 작성합니다. 결과? 학업적 처벌을 받을 위험 없이 더 빠른 워크플로와 진정한 학습.

            예 2:

            NYU의 한 학생이 ChatGPT를 사용하여 연구 논문 초안을 작성했지만 공개하지 못했습니다. 교수는 AI 표절 탐지 도구를 통해 텍스트를 실행하고 플래그를 지정하여 징계 조치를 취했습니다.

            여전히 학생들을 곤경에 빠뜨리는 일반적인 함정

            선의의 학생이라도 문제에 빠질 수 있습니다. 다음은 종종 징계 조치로 이어지는 몇 가지 실수입니다.

            • 편집 없이 AI 텍스트 제출: 교수는 공식 언어 또는 주제를 벗어난 예를 인식할 수 있습니다.
            • 인용 규칙 무시: AI를 보이지 않는 것으로 취급하는 것은 인용 정책을 위반할 수 있습니다. AI 지원을 인용하지 않는 것은 학문적 부정직으로 취급됩니다.
            • 시험 또는 가정 시험 중 AI 사용: 대부분의 학교에서는 이러한 무단 지원을 고려합니다. 일반적으로 금지됩니다.
            • Parphrasing Tools에 대한 과도한 의존: AI 텍스트가 심지어 표절 감지기를 유발할 수 있습니다. 그것은 일반적이고 낮은 품질의 작업으로 이어질 수 있습니다.

            중서부 대학의 한 학생이 ChatGPT를 사용하여 가정 시험 문제에 답했습니다. 교수는 문체 불일치를 알아차리고 탐지 소프트웨어를 사용하여 AI 참여를 확인했습니다. 학생은 ChatGPT 학업 무결성 규칙을 위반하여 정학에 처했습니다.

            확실하지 않으면 강사에게 AI 지원 수준에 대해 직접 문의하십시오.

            대학이 AI 생성 텍스트를 감지할 수 있습니까?

            이것이 가장 일반적인 문제 중 하나입니다. 짧은 대답: 때로는, 예, 하지만 항상 그런 것은 아닙니다. 대학은 AI 생성 텍스트를 감지할 수 있지만 탐지가 완벽하지는 않습니다. 대학은 Turnitin의 AI Detector 또는 GPTZero와 같은 AI 표절 탐지 도구를 사용하여 잠재적인 AI 생성 텍스트를 식별합니다. 도구는 언어 패턴, 문장 구조 및 확률 모델을 분석하여 AI가 작성한 콘텐츠에 플래그를 지정합니다.

            그러나 이러한 시스템은 완벽하지 않습니다. 그들은 AI 출력과 유사할 수 있지만 인간의 글쓰기에서도 나타날 수 있는 언어 패턴, 문장 예측 가능성, 반복 및 구조에 의존합니다. 이러한 도구는 잘못된 긍정을 생성하거나 잘 편집된 AI 텍스트를 놓칠 수 있습니다. 그렇기 때문에 많은 대학이 탐지 도구를 광범위한 검토 프로세스의 일부로 사용하는 것이지 확실한 증거가 아닙니다.

            따라서 대학은 AI 생성 텍스트가 유효한 질문임을 감지할 수 있지만 탐지는 결정적이지 않고 확률적입니다. 학생이 구조화된 스타일 또는 형식적인 스타일로 글을 쓰는 경우 위양성이 발생할 수 있는 반면, 일부 AI 생성 콘텐츠는 의역하거나 신중하게 편집하면 탐지를 우회할 수 있습니다.

            학생은 한계 테스트를 피해야 합니다. 대학에서 AI 부정 행위는 탐지가 보장되지 않더라도 심각한 범죄입니다. 회피보다는 투명한 사용에 초점!

            AI 생성 텍스트에 대한 미국 대학 정책

            미국 전역에서 기관은 ChatGPT와 같은 도구의 증가하는 사용을 반영하기 위해 AI에 대한 대학 규칙을 업데이트하고 있습니다. 대학은 AI가 생성한 텍스트 합법성과 사용에 대한 다양한 접근 방식을 채택하고 있습니다. 연방 표준은 없지만 몇 가지 경향이 나타났습니다.

            • 경계에 대한 격려: 학교는 AI에 대한 책임 있는 실험을 장려합니다.
            • 강사 재량: 개별 교수가 AI 허용 여부를 결정합니다.
            • 윤리에 대한 강조: 대학은 인간의 창의성과 독창성을 강조합니다.

            예를 들어, 미시간 대학의 2024년 AI 정책은 다음과 같이 명시적으로 명시하고 있다. AI 생성 콘텐츠는 분명히 귀속됩니다.”

            한편, 캘리포니아 대학 시스템은 AI를 사용하여 "학생의 노력을 대체"하는 것이 위법 행위에 해당한다고 경고합니다.

            • University of Michigan은 명시적으로 허용되지 않는 한 AI 생성 제출을 금지하는 명확한 정책을 가지고 있습니다.
            • Columbia University는 윤리적 사용을 장려하고 AI 문해력에 대한 워크샵을 제공합니다.
            • Arizona State University는 AI 도구를 커리큘럼에 통합하지만 인간의 감독을 강조합니다.

            AI에 대한 이러한 대학 규칙은 AI가 여기에 있지만 책임감 있게 사용해야 한다는 인식이 커지고 있음을 반영합니다.

            학생을 위한 AI 도구: 무엇을 사용해도 안전합니까?

            모든 AI 도구가 제한되지 않는 것은 아닙니다. 많은 대학이 다음의 사용을 지원합니다.

            • 교정을 위한 문법
            • 의역을 위한 Quillbot
            • 아이디어 생성 및 코딩 도움말

            핵심은 투명성입니다. 학생에게 AI 도구를 사용하는 경우 교수가 알고 승인하는지 확인하십시오.

            대학에서의 AI 부정 행위: 신화 대 현실

            "AI 부정 행위"는 종종 오해되는 유행어입니다. AI를 사용하는 것은 자동으로 부정 행위가 아닙니다. 의도와 공개에 따라 다릅니다.

            신화: 모든 AI 사용은 학문적 부정직과 같습니다.
            현실: 많은 교수들이 AI 지원 브레인스토밍이나 편집을 권장합니다.

            Myth: AI 감지 도구는 완벽합니다.
            현실: 그들은 종종 합법적인 학생 작업을 잘못 분류합니다.

            신화: 게으른 학생만 chatgpt를 사용합니다.
            현실: 많은 사람들이 생산성, 명확성 및 연구 지원을 위해 그것을 사용합니다.

            이러한 뉘앙스를 인식하면 학생과 교육자 모두 AI를 위협이 아닌 도구로 접근하는 데 도움이 됩니다.

            교육에 AI의 통합은 불가피하다. 대학이 교육 분야에서 AI 정책을 개선함에 따라 학생들은 투명성, 저자 및 디지털 리터러시의 새로운 표준에 적응해야 합니다. 수용 가능한 지원과 위법 행위 사이의 경계는 계속 발전할 것이지만 한 가지 원칙은 변함이 없습니다. 바로 정직입니다.

            하버드 AI 정책, 제너레이티브 AI 정책 및 AI에 대한 광범위한 대학 규칙을 이해함으로써 학생들은 이러한 기술을 사용하여 학습 여정을 대체하는 것이 아니라 대체할 수 있습니다.

            AI는 학문적 무결성을 위협할 필요가 없으며 현명하게 사용하면 강화할 수 있습니다.

            학계에서 AI 사용 탐색

            AI는 학습과 창의성을 위한 강력한 도구를 제공하면서 교육을 재편하고 있습니다. 그러나 큰 힘에는 큰 책임이 따릅니다. 학생들은 해당 기관의 CHATGPT 대학 정책을 이해하고 모범 사례를 따르며 일반적인 함정을 피해야 합니다.
            하버드에 있든 커뮤니티 칼리지에 있든 메시지는 분명합니다. AI는 교육을 향상시킬 수 있지만 윤리적이고 투명하게 사용하는 경우에만 가능합니다.

            일반적으로 AI 생성 텍스트를 사용하는 것은 합법이지만 대학은 학문적 사용에 대해 다양한 정책을 가지고 있습니다. 학생들은 학업 부정 행위를 피하기 위해 제도적 지침을 따라야 합니다. 하버드 및 기타 최고의 대학은 수용 가능한 사용을 명확히 하는 AI 정책을 발표했으며 탐지 도구는 빠르게 발전하고 있습니다.