본문 바로가기
덕쥘

교실에 들어온 인공지능의 미래 수용하기

by 로짘 2024. 8. 8.

제목: Embracing the future of Artificial Intelligence in the classroom: the relevance of AI literacy, prompt engineering, and critical thinking in modern education
번역 제목: 교실에 들어온 인공지능의 미래 수용하기: AI리터러시, 프롬프트 엔지니어링, 비판적 사고의 관련성
저자: Walter, Yoshija

초록

본 논의는 교육 환경에서 인공지능(Artificial Intelligence, AI)의 변혁적 영향을 검토하며, AI 리터러시(AI literacy), 프롬프트 엔지니어링(prompt engineering) 능력, 그리고 향상된 비판적 사고 능력의 필요성에 초점을 맞추고 있다. 교육에 AI를 도입하는 것은 기존의 교수 방법에서 크게 도약한 것으로, 개인화된 학습과 특수 교육이 필요한 학생들을 포함한 다양한 교육 요구에 대한 지원을 제공한다.

그러나 이러한 통합은 포괄적인 교육자 훈련 필요성과 사회 구조에 맞춘 교육과정 적응 등의 과제를 제시한다. AI 리터러시는 AI 기술과 그 광범위한 사회적 영향에 대한 이해를 포함하는 중요한 요소로 확인된다. 프롬프트 엔지니어링은 AI 시스템에서 특정 반응을 이끌어내는 주요 기술로 강조되며, 이를 통해 교육 경험을 풍부하게 하고 비판적 사고를 촉진한다.

이러한 기술들을 교육 과정과 교육학적 실천에 포함시키는 전략에 대한 상세한 분석이 이루어진다. 이는 스위스 대학을 기반으로 한 사례 연구와 문헌 검토를 통해 논의되며, 이어서 교실에서 AI를 구현하는 방법에 대한 실용적인 제안이 이루어진다.

서론

교육 환경의 변화 속에서, 인공지능(Artificial Intelligence, AI)의 통합은 학습과 교수 방법론에 새로운 시대를 열며 변혁적인 변화를 나타낸다. ==이 논문은 교실에서의 AI의 다면적 역할을 탐구하며, 특히 프롬프트 엔지니어링(prompt engineering), AI 리터러시(AI literacy), 그리고 비판적 사고 능력 함양의 중요성에 초점을 맞춘다.==

교육 환경에서의 AI 도입은 단순한 기술적 진보를 넘어 교육 경험의 핵심을 재형성한다. AI의 역할은 전통적인 교수 방법을 넘어서 개인화된 학습 경험을 제공하고 다양한 교육적 요구를 지원한다. AI는 교육 과정을 향상시키며, 기계 학습과 교육용 로봇공학과 밀접하게 연관된 전산적 사고와 비판적 사고와 같은 필수 기술을 개발한다. 더불어, AI는 특수 교육이 필요한 아동들에게 시기적절한 개입을 제공하여 그들의 학습 경험과 일상생활을 풍부하게 하는 데 큰 가능성을 보여주었다(Zawacki-Richter et al., 2019).

그러나 교육에 AI를 통합하는 것은 도전 과제가 없지 않다. 이는 사회적 구조적 조건을 고려하는 체계적인 접근을 필요로 한다. ==알고리즘적 사고를 넘어, 교육에서 AI는 혁신과 비판적 사고를 촉진하기 위해 창의성과 기술 유창성에 초점을 맞출 것을 요구한다. 이는 AI 시대의 교육 접근 방식에 패러다임 전환을 필요로 하며, 전통적인 방법을 넘어 더 역동적이고 상호작용적이며 학생 중심의 학습 환경을 수용해야 한다(Chiu et al., 2023).== [^2]

[^2]: 최근 AI기술에 대한 교육 혹은 교육에 AI 기술을 적용해야 하는 가에 대한 논의 자료로 참고할 수 있겠다. 아래 Chan(2023)도 이와 관련하여 찾아 볼 것.

이 논문은 현대 교육에서 AI의 역할에 대한 포괄적인 탐구의 기반을 마련한다. ==**프롬프트 엔지니어링 방법론, AI 리터러시, 비판적 사고 능력**에 대한 심층적인 이해의 필요성을 강조하며, 이들이 교육의 미래를 형성하는 데 있어 가지는 의미, 도전 과제, 기회를 검토한다.== 이전의 논문들이 이미 교실에서 AI의 관련성을 인식하는 것의 중요성을 암시하고 예비적 프레임워크를 제안했지만(Chan, 2023), ==본 논의는 AI가 도입된 세계에서 교육의 미래에 필요한 세 가지 주요 기술이 있다고 주장한다.== 이 세 가지 기술은 실용적인 적용 조언과 함께 제시되며, 응용과학대학의 강사들의 경험을 바탕으로 한다. 따라서 본 논문은 고등 교육에 초점을 맞춰 AI를 교실에 가장 잘 통합하는 방법에 대한 개념적 논의이다. 이는 주로 성인 학생들에게 관련이 있을 수 있지만, 아동들에게도 유용할 수 있다고 믿는다.

방법론적 고찰

본 논문은 AI의 적절한 사용에 필요한 기술 역량에 관한 개념적 논의를 포함한다. 이는 두 단계 접근법을 기반으로 한다:

a. 특히, 스위스 응용과학대학의 학생 및 강사들과의 심도 있는 비공식 토론과 해당 학교에서 저자의 교육 경험을 바탕으로 한다. ==이를 종합하여 교육 환경에서 AI 사용에 필요한 기술 역량을 어떻게 유익하게 연마할 수 있는지에 대한 사례 연구를 이끈다.== 이로부터 몇 가지 미해결 질문을 제기하며, 이는 문헌을 통해 다룰 것이다.

b. 대학의 실제 사례에 대한 논의와 설명이 필요한 부분을 추가적으로 설명함으로써, (위 질문에 대한) 답변 및 모범 사례를 서술적 문헌 고찰(narrative literature review)을 통해 설명해전체적인 그림을 완성하고, 최종적으로 고등 교육을 위한 실용적 제안을 한다.

학생 및 직원과의 비공식 토론은 구조화된 것은 아니며, AI 사용 초기 단계에서 기술에 대한 명시적, 암묵적 태도, 두려움, 기회 및 일반적 사용에 관해 가능한 한 총체적이고 신뢰할 수 있는 그림을 수집하기 위해 실행 가능한 곳에서 수집되었다. 따라서, 이는 여러 학급의 학생들에게 전체 및 소그룹에서 의견을 표현하도록 요청한 수업 환경에서의 교사-학생 토론, 쉬는 시간 동안의 학생들과의 개별 토론, 교수 및 교사들과의 점심 대화, 그리고 대학에서 열린 회의에서의 주제 관련 서신 수집을 포함한다. 이를 종합하여 AI에 관한 현재의 태도와 사용에 대한 견고한 이해를 구축하기에 충분한 정보를 제공하였다.

교육에서 AI의 등장

2022년 11월 ChatGPT(현재까지 OpenAI의 가장 강력한 AI 챗봇 중 하나)의 도입은 교육 환경을 크게 변화시키고 있으며, 학습 접근 및 전달 방식의 새로운 시대를 열고 있다. 이 고급 AI 도구는 교육 패러다임을 재정의하여 이전에는 달성할 수 없었던 수준의 학습 개인화(personalization)를 제공한다. 정교한 언어 처리 능력을 갖춘 ChatGPT는 각 학생의 고유한 요구, 강점, 약점에 맞춘 맞춤형 교육 경험을 제공하는 교실의 판도를 바꾸는 요소가 되고 있다. 전통적이고 획일적인 교육 방식에서 고도로 개인화된 학습 전략으로의 전환은 교육 관행의 중대한 진보를 의미할 가능성이 높다(Aristanto et al., 2023).

교육의 개인화(personalizing education)에 있어 ChatGPT의 역할은 특히 주목할 만하다. 학생 데이터를 분석하고 고급 알고리즘을 사용하여, GPT와 다른 대규모 언어 모델(Large Language Models, LLMs)은 학업 요구사항뿐만 아니라 각 학생의 학습 스타일, 속도, 선호도에 맞춘 맞춤형 학습 경험을 창출할 수 있다. 이는 학생들이 단순히 정보의 수동적 수용자가 아닌 학습 여정에 적극적으로 참여하고 관여하는 더욱 역동적이고 효과적인 교육 환경으로 이어진다([[Jennifer L. Steele, 2023]]

더욱이, LLM은 특별한 요구를 가진 학생들을 지원하는 데 주목할 만한 잠재력을 보여주었다. 다양한 학습 과제에 맞춘 전문화된 도구와 자원을 제공함으로써 교육을 더욱 접근 가능하고 포용적으로 만든다 ([[Shalini Garg, 2020]]). 전통적인 교실 환경에서 따라가기 어려웠을 수 있는 학생들은 이제 AI의 능력을 통해 그들의 특정 요구에 맞춘 콘텐츠와 전달 방식의 혜택을 받을 수 있으며, 이는 학습의 장벽을 허물고 더욱 포용적인 교육 분위기를 조성한다(Rakap, 2023).

이 모든 것에서, GPT와 같은 언어 모델의 교육 시스템 통합은 단순한 개선이 아니라 현대 교수 및 학습 방법론의 필수적인 부분이 될 잠재력을 가지고 있다. 이러한 AI 주도 접근법에 적응하는 것은 특정 과제를 제시하지만, 학생, 교육자, 그리고 교육 시스템 전반에 걸친 이점은 상당하다(자세한 리뷰는 [[Faycal Farhi, Riadh Jeljeli, Ibtehal Aburezeq, Fawzi Fayez Dweikat, Samer Ali Al-shami, Radouane Slamene, 2023]] 참조). 교육에서의 ChatGPT는 더욱 개인화되고, 포용적이며, 효과적인 학습 경험을 창출하는 데 중요한 진전이 될 수 있으며, 학생들을 현재의 학업 과제뿐만 아니라 미래의 진화하는 요구에도 대비시킬 수 있다.

그러나 AI를 통한 교육 시스템의 긍정적 변화에 대한 많은 귀중한 가능성은 몇 가지 단점도 동반한다. 이는 다음과 같이 요약될 수 있다([[Tufan Adiguzel, Mehmet Haldun Kaya, Fatih Kürşat Cansu, 2023]]; Ji et al., 2023; Ng et al., 2023a, 2023b, 2023c; Ng et al., 2023a, 2023b, 2023c):

  1. 교사들이 기술에 대한 지식과 최선의 사용 방법에 대해 잘 모르기 때문에 압도감을 느낀다.
  2. 교사와 학생 모두 기술의 한계와 위험(예: AI 환각을 통한 거짓 응답 생성)을 인식하지 못한다.
  3. 학생들이 비판적 사고 없이 기술을 사용하고 필요한 인지적 작업을 기계에 맡긴다.
  4. 학생들이 스스로 새로운 자료를 학습하려 하지 않고 대신 노력을 최소화하려고 한다.
  5. GPT-3, GPT-3.5, GPT-4가 학생들의 수학 불안을 반영하는 것과 같은 악성 조건을 악화시키는 고유한 기술적 문제 [[Katherine Abramski, Salvatore Citraro, Luigi Lombardi, Giulio Rossetti, Massimo Stella, 2023]]).

교육에서 AI를 사용하는 데 모든 당사자가 최선의 준비를 할 수 있도록, 사례 연구와 후속 문헌 분석을 바탕으로, 이러한 문제들을 해결할 수 있는 세 가지 필요한 기술이 있다: AI 리터러시(AI literacy), 프롬프트 엔지니어링(prompt engineering)에 대한 지식, 그리고 비판적 사고(critical thinking)이다. 과제에 대한 더 자세한 분석과 실제 적용을 위한 제안이 논의된다.

스위스 교육 기관의 사례 연구

학업에서의 AI 사용의 교육적 어려움

본 사례 연구는 스위스 취리히의 칼라이도스 응용과학대학교(Kalaidos University of Applied Sciences, KFH)에서의 인공지능 도입과 처리를 다룬다. 현재 KFH는 스위스 유일의 사립 응용과학대학으로, 경영학부, 보건학부, 심리학부, 법학부, 음악학부로 구성되어 있다. 현 저자는 대학의 AI 태스크포스에서 주도적 위치에 있어, 지난해 AI 챗봇이 갑자기 더 인기를 얻으면서 발생한 이점과 과제, 그리고 직원과 학생들의 이 주제에 대한 두려움을 직접적이고 깊이 있게 알고 있다.

다른 많은 대학들과 마찬가지로, KFH는 ChatGPT의 도입과 이에 따른 학생, 강사, 지도교수들의 채택에 대한 적절한 대응을 찾는 데 상당한 어려움을 겪었다. AI 태스크포스와 학교 지도부는 새로운 기술을 다루는 데 있어 세심한 접근이 필요하다고 판단했다. 일부 기관들이 LLM을 즉시 금지한 반면, 다른 기관들은 전폭적으로 수용하고 사용에 거의 제한을 두지 않았다. KFH는 양 극단이 다소 문제가 있을 수 있다고 지도부가 판단했기 때문에 중도를 찾고자 했다. 주요 이유는 표 1에 요약되어 있다.

![[table 1.png]]

**<표 1 내용 설명>**

AI 사용을 금지해야 한다는 입장과 AI 사용을 전적으로 허용해야 한다는 입장이 있다.

  1. ==(AI 사용 금지):== AI를 학술 논문에서 사용하는 것을 금지해야 할 몇 가지 강력한 이유가 있다:

• 학생들은 종종 이러한 시스템을 사용하는 방법에 대해 제대로 훈련받지 못한다.

• 학생들이 더 이상 "스스로 생각하지 않고" 작업을 기계에 맡길 위험이 높다.

• 학생의 고유한 작업과 AI의 작업을 평가하는 것은 대부분 불가능하다.

• AI 환각(hallucinations)과 같은 명백한 기술적 문제가 있어, 모델이 사실이 아닐 수 있는 것들을 발명해낼 수 있다.

  1. ==(AI 사용 금지):==학생들의 작업에서 AI를 금지하는 것의 주요 문제점은 두 가지이다:

(1) 학교가 학생들이 실제로 이러한 시스템을 사용하지 않도록 통제하고 확인하는 것은 거의 불가능하다. 매우 자주, 수요가 높은 것을 금지하면 불법적 사용을 야기한다.

(2) 또한, 이 기술이 대부분 사람들의 삶의 모든 측면에 통합될 가능성이 높기 때문에, 교육자들의 도움을 통해 적절하고 책임감 있는 사용법을 배우는 것이 가치 있을 것이다.

  1. ==(AI 사용 허용):==일부 교육자들이 학생들의 AI 사용을 전폭적으로, 대부분 제한 없이 수용하게 하는 몇 가지 논거가 있다:

• 새로운 기술을 사용하는 방법을 학생들에게 가르치는 것이 교육자의 임무이다.

• 학생들에게 전적인 책임을 맡기는 것이 AI의 이점과 과제를 다루는 법을 배우도록 돕는 유일한 방법일 수 있다.

• AI 모델은 학계, 취업 시장, 일상생활의 모든 영역에 통합될 것이므로 피할 수 없을 것이다.

• 학생들이 AI의 전체 범위로부터 더 많이 보호될수록, 그것의 책임 있는 사용법을 덜 배울 수 있다.

• AI는 계속 존재할 것이므로 조만간 반드시 다루어져야 한다.

  1. ==(AI 사용 허용):== 교육자들이 매우 관대한 지침과 모범 사례를 제공하더라도, 자신의 인지적 노동의 무거운 부담을 컴퓨터에 맡기려는 유인이 매우 높을 수 있다. 이는 세 가지 주요 문제로 이어진다:

- 학생들이 실제로 무언가를 배웠는지 명확하지 않다.

- 학생들이 실제로 인지적 작업을 스스로 수행했는지, 그리고 이를 어떻게 평가해야 하는지 판단하기 어렵다(결국, ChatGPT가 순수하게 또는 대부분 작성한 텍스트를 평가하는 것은 교사들에게 즐겁지도 유용하지도 않다).

- 그리고 평가자들이 학생들이 LLM에서 발생하는 환각문제들에 빠지지 않았는지 확인하는 것은 거의 불가능하다.

중도 모색

KFH 교실에서 학생들과의 토론 결과, ChatGPT 도입 1년 후에도 아직 사용해보지 않은 학생은 소수에 불과했다. 전반적인 분위기는 학업량을 줄이는 데 도움이 되는 새로운 AI에 대해 열광적이며, 이는 교실에서의 과제와 논문 작성에 도움을 받는 것도 포함한다. 그러나 학생들은 이것이 "단지 기계일 뿐"이며 준수해야 할 실용적이고 윤리적인 원칙이 있어야 한다는 점도 잘 알고 있다. 그들은 다음과 같은 이유를 든다:

  1. AI 사용은 공정해야 하며, 어떤 학생도 불공정한 이점이나 불이익을 받지 않아야 한다.
  2. 학생들이 무엇이 허용되고 무엇이 허용되지 않는지 정확히 알 수 있도록 학교의 기대치가 명확해야 한다.
  3. 많은 학생들이 이 시스템의 잠재력과 한계에 대해 충분히 알지 못해 잘못 사용할까 두려워한다.
  4. AI 환각(hallucinations)과 오정렬(misalignment) 문제가 아직 널리 알려지지 않았다: 많은 학생들은 AI가 매우 설득력 있게 들리면서도 사실이 아닐 수 있는 내용을 만들어낼 수 있다는 사실에 여전히 놀란다.
  5. AI 환각 문제를 명확히 이해하고 있는 일부 학생들도 여전히 이를 다루는 데 준비가 되어 있지 않다고 느낀다.

따라서 KFH는 학생들이 책임감 있게 AI를 다루는 법을 배우도록 돕고자 한다. AI 태스크포스 구성원과 대학 지도부에게 이는 ChatGPT와 다른 LLM의 사용을 금지하지도, 제한 없이 허용하지도 않는다는 것을 의미하게 되었다. 이러한 프레임워크가 어떻게 보이고 구현될 수 있을지에 대해서는 격렬한 논쟁이 있었다. 최종 타협안은 내부적으로 "AI 가이드라인"(독일어로 "KI-Leitfaden")이라고 명명된 문서로, 학생들이 논문에 AI를 적용할 때 허용되거나 허용되지 않는 사용에 대한 규칙과 예시를 제시했다. 주요 요지는 학생들에게 새로운 기술을 자신의 작업에 명시적으로 사용하도록 허용하고 장려한다는 것이다. 그들은 이를 실험하고 결과물을 자신의 논문에 어떻게 활용할 수 있는지 살펴봐야 한다. 올바른 사용법은 AI를 교사, 강사, 대필자가 아닌 스파링 파트너로 다루는 것이다. 다른 인간 스파링 파트너와 마찬가지로, AI는 흥미로운 아이디어와 제안을 제공할 수 있다. 학생이 생각하지 못했을 수 있는 방향과 답변을 제공할 수 있다. 그러나 동시에 스파링 파트너가 항상 옳은 것은 아니며 무조건적으로 신뢰해서는 안 된다. 또한 스파링 파트너의 결과물을 자신의 것으로 사용하는 것은 옳지 않으며, 일반적인 상황에서는 표절로 간주될 것이다(내부 문서에 따르면, 기술적으로 인공적으로 생성된 텍스트를 복사하는 것은 표절로 분류되지 않지만 윤리적으로는 동일한 정도로 부적절하다). 학생들이 AI와 상호작용하는 방식에도 동일하게 적용된다: 도움이 된다면 사용해야 하지만, 어떤 텍스트도 그대로 복사해서는 안 되며 정확히 어떻게 사용했는지 명확히 해야 한다. AI 사용을 명확히 하기 위해, 다음 사항에 대해 투명해야 하며(부록의 표에 이를 문서화해야 함):

*사용된 AI 모델 알리기*
예시: OpenAI의 GPT-4와 Dall-E 3, Google의 Bard, 또는 Anthropic AI의 Claude-2.

*사용 방법과 이유 설명*
예시: 적용된 연구 질문에 대한 적절한 프레임워크로서 일부 모델에 대해 브레인스토밍하기 위해 LLM을 사용함.

*AI 응답의 비판적 평가 방법 설명*
예시: AI의 제안이 사실이고 의미 있는지 확인하기 위해 문헌 검토를 통해 결과를 확인함.

*AI가 사용된 원고의 위치 강조*
예시: 2장 "이론" (10-24페이지).

학생들에게 이러한 점들을 선언하도록 요구한 두 가지 주요 동기가 있었다:

첫째, 기관은 AI 사용 방법에 대한 완전한 투명성을 강제하고자 했다. 둘째, 학생들은 AI의 출력에 대해 비판적인 태도를 유지해야 하며, 따라서 전형적인 AI 문제(환각 등)에 빠지지 않도록 어떻게 확인했는지, 그리고 작업이 여전히 자신의 것임을 확실히 하기 위해 보고해야 한다는 점을 명확히 인식해야 한다. 이것이 우리가 문서화 요구 사항의 세 번째 점(비판적 성찰의 필요성)을 가장 중요한 혁신으로 간주한 이유이며, 이는 다른 학교와 대학에서는 찾아볼 수 없었던 것이다. 이는 표 2에 나타난 구속력 있는 지침의 공식화로 이어졌다.

![[table 2.png]]

채택된 대응의 문제점

학술 논문에 대한 AI 생성 콘텐츠 문제에 대한 기관의 주요 대응은 이러한 "AI 가이드라인"의 구현이었다. 가이드라인은 AI 사용을 규제하는 데 필요한 단계이지만, 지금까지 사용된 접근 방식에는 상당한 문제가 있다. 가장 중요한 문제 중 하나는 그 효과가 학생들의 준수에 달려 있다는 점인데, 이는 보장되지 않는다. 많은 학생들이 이 문서를 철저히 읽지 않을 수 있어 이해와 준수에 간극이 생길 수 있다. 문서 읽기가 자발적이기 때문에 모든 학생들이 AI를 작업에 사용하기 전에 이를 읽지 않았을 가능성이 있다. 동시에 현재 그들이 실제로 이를 읽었는지 확인할 수 있는 방법도 없다.

현재까지 중요한 문제는 학생들을 위한 AI 능력에 대한 포괄적인 교육의 부재이다. AI 사용에 대한 문서를 제공하는 것만으로는 AI 기술, 그 잠재력과 한계에 대한 깊은 이해를 fostering하기에 충분하지 않다. 이러한 교육 부족은 많은 학생들이 이러한 기술을 학업에 적절히 통합하는 방법을 알지 못할 수 있어 AI 도구의 오용으로 이어질 수 있다. 학생 과제에서 AI 사용을 모니터링하는 것도 또 다른 과제이다. 특히 이러한 도구가 더 정교해짐에 따라 작업이 AI의 도움으로 생성되었는지 확인하기 어렵다. 이러한 불확실성으로 인해 학생들이 이러한 지침을 따르고 있는지 확인하기 어려우며, 누구도 부당한 이점을 얻지 않도록 하는 것도 마찬가지로 어렵다. 또한 상당수의 학생들이 AI 도구를 책임감 있게 사용하는 방법이나 그 한계를 완전히 이해하지 못할 수 있다. 이러한 지식 부족은 비판적 평가 없이 AI 생성 콘텐츠에 의존하게 될 수 있어 학술 작업의 질과 무결성을 해칠 수 있다. 동시에 학생들은 AI를 적절히 사용함으로써 학습과 비판적 사고 기술을 향상시킬 기회를 놓칠 수도 있다.

이 중 어느 것도 단순히 문서를 제공하고 학생들이 그것을 읽고 그 이상을 따르기를 바라는 것만으로는 해결할 수 없다. 이러한 문제를 해결하려면 단순히 지침을 설정하는 것 이상이 필요하다. AI, 그 윤리적 사용, 한계에 대해 학생들을 교육하는 총체적 접근이 요구된다.

문제에 대한 잠재적 해결책

학생들과 교사들이 학업 목적으로 AI를 적절히 사용할 수 있도록 하기 위해서는 새로운 "AI 문화"가 필요한 것 같다. AI 문화는 학계 전반에 스며들어 AI를 두려워하지 않고 쉽게 사용하며 이해하고 - 가장 중요하게는 - 비판적으로 평가할 수 있는 환경을 조성해야 한다. 한 가지 방법은 교사, 지도교수, 학생들을 위한 정기적인 워크샵과 회의를 실시하는 것이다. 이러한 세션은 최신 AI 발전, 윤리적 고려사항, 모범 사례(best practices)에 초점을 맞춰야 한다. AI 주제와 정기적으로 교류함으로써 학계는 AI 도구와 개념을 관리하는 데 있어 정보를 얻고 숙련될 수 있다. 이는 AI의 기술적, 실용적, 사회적 과제에 대한 이해를 깊이 각인시키는 데 도움이 될 것이다.

워크샵과 이니셔티브는 AI를 둘러싼 복잡성과 의미에 대한 문제를 "각인"시켜야 한다. 기술 교육은 피상적이어서는 안 되며, 실제 시나리오를 파고들어 이론과 실제가 어떻게 수렴하는지 논의하고, 학생들과 교육자들에게 사회와 교육에서 AI의 역할에 대한 강력한 이해를 제공해야 한다. 또 다른 가능성은 교사들이 적절하다고 생각하는 모든 학술 모듈에 AI를 통합하여 다양한 분야에서 AI에 대한 일관된 노출과 이해를 제공하는 것이다. 이 전략은 학생들이 다양한 분야에서 AI의 관련성을 인식하게 하여, AI가 전문적인 환경에서 보편화될 미래에 대비할 수 있게 한다. 아마도 AI 사용법에 대한 의도적인 수업이 이 교육 모델의 기둥 역할을 할 수 있을 것이다. 기본 원리부터 고급 응용 및 윤리적 고려사항까지 다양한 주제를 다루는 이러한 수업은 모든 학생이 전공이나 연구 분야에 관계없이 AI에 대한 기본적인 이해를 갖출 수 있도록 할 수 있다. 이러한 수업을 필수로 지정하면 모든 학생이 최소한 한 번은 필요한 세부 사항을 접하고 AI 지침에 대한 기본적인 이해를 갖게 될 것이다.

교실을 넘어서, AI 전문가, 기술 기업, 다른 교육 기관과의 자발적인 협력과 파트너십은 귀중한 통찰력과 자원을 제공할 수 있다. 이러한 협력은 이론적 지식과 실제 적용 사이의 격차를 좁혀 학생들에게 AI의 실제 영향에 대한 더 포괄적인 이해를 제공할 수 있다. 그러나 학생들 스스로가 책임 있는 AI 문화를 어떻게 조성할 수 있는지에 대한 흥미로운 아이디어를 가지고 있을 수 있다. 프로젝트와 동아리 같은 학생 주도의 AI 이니셔티브를 장려하면 실습 학습 환경을 동기부여할 수 있다. 이러한 이니셔티브는 동료 학습, 혁신, AI 지식의 실제 적용을 촉진할 수 있다. AI 프로젝트에 적극적으로 참여함으로써 학생들은 가속화되는 디지털 세계의 복잡성을 탐색하는 데 필수적인 비판적 사고와 문제 해결 능력을 개발할 수 있다.

다시 말해, AI 규정을 제공하는 것은 좋은 첫 걸음이지만, 학생들과 강사들이 주제에 더 깊이 참여할 수 있는 방법을 만드는 것이 이러한 조치를 강화하고 해당 문화를 육성하는 데 도움이 될 것이다.

교실에서의 AI

당연히 인공지능(Artificial Intelligence)은 논문 작성에만 관련된 것이 아니라 새로운 교실 경험을 만들어낼 잠재력도 가지고 있다. 아직 교사들이 강의에서 AI를 적극적으로 도입하고 활용하는 경우는 드물지만, 일부는 이미 앞서 나아가 여러 방식으로 기술을 구현하고 있다고 보고했다. 표 3은 대학 교직원들이 지금까지 AI 모델을 사용해온 주요 사례를 보여준다.

교사들과의 논의를 통해 교실에서 AI 도구를 구현하는 데 가장 큰 제약 중 하나가 이를 사용하는 것에 대한 두려움이라는 점이 드러났다. 주로 AI에 대해 충분히 알지 못하고 잘못 사용할 수 있다고 생각하기 때문이다. 동시에 학생들도 능숙한 사용자가 아닐 수 있으며, 교사들이 스스로를 전문가라고 느끼지 못한다면 이 문제는 더욱 악화된다. 인간-컴퓨터 상호작용(human-computer-interactions) 주제가 정말 중요하고 과학계에서 많은 관심을 받고 있지만, 실무자들은 종종 뒤처지게 된다. 그 결과 KFH에서는 현재 교사와 학생들이 이러한 문제를 개선하는 데 도움을 주는 워크샵과 프로그램이 없다. 또한 디지털 세계와 AI 기술이 너무나 빠르게 진화하고 있어 많은 이들은 발전 속도를 따라가기가 매우 어렵다고 느낀다. KFH의 주요 과제 중 하나는 이 문제를 전담하는 특정 개인이나 그룹이 없다는 명백한 사실이다. 현재까지는 각 개인이 원하는 대로 이 문제를 다루고 있으며, 이를 위한 유급 직책이 없어 직원들은 모든 업무를 개인 시간을 할애해 부수적으로 해야 한다.

이러한 문제들을 해결하고 교실에서 AI 주도 문화를 조성하는 데 도움이 될 수 있는 몇 가지 권장사항이 있다:

  1. 워크샵(Workshops): 학교는 교사들이 AI 세계에서 무슨 일이 일어나고 있는지, AI 포용적 교실 환경을 만드는 데 도움이 되는 도구들이 무엇인지 이해하도록 돕기 위해 특별히 고안된 워크샵을 제공할 수 있다.
  2. 정기 업데이트(Regular Updates): 뉴스레터, 점심 회의, 온라인 이벤트 등의 형태로 교직원과 강사들이 최신 정보를 유지할 수 있도록 하는 수단을 마련할 수 있다. 이를 통해 사람들이 강의에 유용할 수 있는 최신 도구, 앱, 접근법을 인식할 수 있다.
  3. 재정 예산(Financial Budget): 현재 이 특정 학교에서는 AI 주제에 대한 교육을 받기 위한 재정 지원이 없으며, 직원들이 무언가를 하고 싶다면 실질적으로 스스로 해야 한다. 직원들이 이 분야에서 지식을 쌓는 데 도움을 주기 위한 전용 예산이 있어야 한다. 다른 분야에서라면 직원들에게 언어나 학생 관리 시스템 다루기와 같은 중요한 기술을 배우라고 요구하면서 이를 전적으로 자유 시간에 재정 지원 없이 하도록 하는 것은 잘못된 것일 것이다. 하지만 현재 이 기관은 AI에 대해 이렇게 대처하고 있다.
  4. 가이드라인과 모범 사례(Guidelines and Best Practices): 현재 학생들을 위한 "AI 가이드라인" 외에는 업무와 학교 맥락에서 AI를 가장 잘 사용하는 방법에 대한 서면 지침, 팁과 요령, 제안이 없다. 이러한 것들이 일종의 지침을 제공하는 데 도움이 될 수 있다.
  5. 유급 직책(Paid positions): 기술을 다루는 데 내재적 동기를 가진 내부 "프리랜서"에만 의존하기보다는, 전문가들이 의견을 제시하고 기관의 AI 문화를 형성하는 데 도움을 줄 수 있는 직책을 만드는 것이 현명할 것이다. 이는 AI에 예산이 필요하다는 세 번째 권장사항과 일치한다.

이 사례 연구를 바탕으로 한 첫 번째 권장사항들이 도움이 될 수 있지만, 특히 학교에서 AI 리터러시(AI literacy)를 어떻게 촉진할 수 있는지, 프롬프트 엔지니어링(prompt engineering)을 교육 도구로 어떻게 사용할 수 있는지, 그리고 학생들이 AI를 통해 비판적 사고 능력을 어떻게 향상시킬 수 있는지에 대한 문제에 있어서는 문헌을 통한 추가적인 명확화가 필요하다. 각각의 과제와 기회에 대한 더 깊은 고찰이 필요하며, 이 특정 사례 연구뿐만 아니라 더 광범위한 문헌의 발견을 통해 풍부해진, 교실에서의 AI 사용에 대한 더 일반화할 수 있는 실용적인 제안들이 뒤따라야 한다.

교실에서의 AI 리터러시

AI 리터러시(AI literacy)의 개념은 현대 학습의 초석으로 부상하고 있다. 본질적으로 이는 AI 기술과 효과적으로 상호작용할 수 있는 이해력과 능력을 다룬다. 이는 단순히 기술적 노하우뿐만 아니라 AI의 윤리적, 사회적 함의에 대한 인식도 포함한다. 현대 교실에서 AI 리터러시는 전통적인 학습 패러다임을 넘어서, 학생들에게 삶과 일의 다양한 측면에서 AI의 힘을 활용하고 탐색할 수 있는 기술을 제공한다. 이는 AI를 이해하는 것이 읽기, 쓰기, 산술만큼 중요해지는 교육의 근본적인 변화를 나타낸다([[Helen Zhang, Irene Lee, Safinah Ali, Daniella DiPaola, Yihong Cheng, Cynthia Breazeal, 2023]]).

교육에서 AI 리터러시의 현재 상태는 잠재력이 풍부하면서도 초기 도입의 과제에 직면한 신흥 분야를 반영한다. 교육자들과 정책 입안자들은 AI 리터러시의 중요성을 인식하기 시작하여 이를 교육과정과 교육 전략에 통합하고 있다(Casal-Otero et al., 2023; Chiu, 2023). 그러나 이러한 통합은 초기 단계에 있으며, 학교들은 이 복잡하고 끊임없이 진화하는 기술 세트를 가르치기 위한 다양한 접근 방식을 탐색하고 있다. 과제는 기술적 지식을 전달하는 것뿐만 아니라 사회적, 심리적, 심지어 경제적 수준에서 AI의 더 광범위한 영향에 대한 더 깊은 이해를 촉진하는 데 있다. 그 중요성으로 인해, 학생들에게 제공할 수 있는 설문지를 사용하는 첫 번째 AI 리터러시 척도(AI-Literacy-Scales)가 등장하고 있다(Ng et al., 2023).

현재까지 용어의 전체 범위에 대한 엄격한 합의는 없지만, AI 리터러시는 여러 하위 기술로 구성된다고 논의될 수 있다:

• **아키텍처(Architecture)**: 인공 신경망(Artificial Neural Networks)의 기본적인 아키텍처 아이디어를 (기본적인 필요 지식 수준에서만) 이해하는 것. 이는 주로 이러한 시스템이 순수한 통계 모델에 불과하다는 지식을 포함해야 한다.

• **한계(Limitations)**: 이러한 모델이 어디에 적합하고 어디에서 실패하는지 이해하는 것. 가장 중요하게, 학생들과 교사들은 이러한 통계 모델이 진실 생성기가 아니라 효과적인 데이터 처리기(문장 구성기나 이미지 생성기와 같은)라는 것을 이해해야 한다.

• **문제 환경(Problem Landscape)**: AI 시스템의 주요 문제점들이 어디에 있는지 이해하는 것. 이는 AI가 단지 통계적 기계일 뿐이며 진실 생성기가 아니라는 사실 때문이다. 즉, 학생들과 교사들은 AI의 주요 함정을 알아야 한다:

i. AI 환각(AI hallucination): AI는 (여전히 권위적으로 들리지만) 사실이 아닌 것을 "발명"할 수 있다.
ii. AI 정렬(AI alignment): AI는 우리가 지시한 것과 다른 일을 할 수 있다(때로는 너무 미묘해서 때때로 눈치채지 못한다).
iii. AI 폭주(AI runaway): AI가 자체 통제되어 우리의 최종 지시에 없었던 특정 도구적 목표를 설정한다(이 문제에 대한 자세한 철학적 분석은 Bostrom, 2002, 2012 참조).
iv. AI 차별(AI discrimination): 훈련 데이터의 편향으로 인해 AI는 편향될 수 있으며 과소 대표된 그룹에 대한 차별적 결론으로 이어질 수 있다.
v. AI 고착 문제(AI Lock-In problem): AI는 특정 내러티브에 갇혀 전체 그림을 잃을 수 있다(실험과 자세한 설명은 Walter, 2022에서 찾을 수 있다).

• **적용 가능성 및 모범 사례(Applicability and Best Practices)**: 위험 뿐만 아니라 AI가 일상 생활과 학습 맥락에서 유익하게 사용되고 구현될 수 있는 많은 방법을 이해하는 것. 여기에는 교실에서 AI를 사용하는 새로운 모범 사례에 대한 일반적인 이해도 포함된다(Southworth et al., 2023).

• **AI 윤리(AI Ethics)**: AI의 주요 기본 사항, 한계와 위험, 잠재적 문제점, 그리고 어떻게 사용될 수 있는 지에 대한 이해가 AI의 윤리에 대한 미묘한 이해(nuanced understanding)로 이어져야 한다. 학생들과 교사들은 교육 환경에서 AI 모델을 어떻게 덕스럽게(virtuously) 구현할 것인지에 대해 다룰 수 있도록 정의에 대한 감각(a sense of justice)을 발전시켜야 한다.

AI의 주요 기초, 한계 및 위험, 잠재적 문제 및 사용 방법을 이해하는 것은 인공지능 윤리에 대한 미묘한 이해로 이어져야 합니다. 학생과 교사는 교육 환경에서 인공지능 모델을 어떻게 가상으로 구현할 것인지에 대해 수렴하도록 통제하는 정의감을 개발해야 합니다.

기술 개념에 조기 노출되면 학생들의 진로와 미래에 대한 준비성에 상당한 영향을 미칠 수 있다는 것이 입증되었다(Bembridge et al., 2011; Margaryan, 2023). 어린 나이에 AI 리터러시를 도입함으로써, 학생들은 교육의 후기 단계와 직업 생활에서 고급 학습과 응용을 위한 길을 닦는 기초적인 이해를 발달시킨다. AI 리터러시의 이러한 조기 채택은 AI를 사용하는 데 능숙할 뿐만 아니라 기술 주도 세계에서 혁신하고 선도할 수 있는 세대를 준비하는 데 중요하다. 이는 학교와 대학에서 AI 리터러시 개발을 모든 학생의 중요한 특징으로 만든다. 더욱이 그 역할은 학업 성취를 넘어 확장된다; 이는 AI가 편재한 미래의 현실에 대비하여 학생들을 준비시키는 것이다. 과학과 공학에서부터 예술과 인문학에 이르기까지 다양한 직업에서, AI에 대한 이해는 개인이 AI 기술과 효과적이고 윤리적으로 함께 일할 수 있게 하는 귀중한 자산이 될 것이다. 따라서 AI 리터러시는 단순한 교육 목표가 아니라 21세기를 위한 필수적인 생활 기술이다.

한 가지 구체적인 제안은 학생들의 관련 기술을 의도적으로 육성하기 위한 "AI 리터러시 과정"을 제공하는 것이다. 균형 잡히고 전체적인 수업을 위해 AI 리터러시 프로그램은 여러 가지 핵심 구성 요소를 포함해야 한다(Kong et al., 2021; Laupichler et al., 2022; Ng et al., 2023c):

  1. AI 개념 소개: AI의 기본 정의와 이해, 역사와 진화를 포함한다. 이는 좁은 AI, 일반 AI, 초지능 AI와 같은 다양한 유형의 AI를 다룬다.
  2. 머신 러닝과 기술적 기초 이해: AI의 핵심 부분인 머신 러닝의 개요. 이는 다양한 유형의 머신 러닝(지도 학습, 비지도 학습, 강화 학습)과 기본 알고리즘을 이해하는 것을 포함한다. 이는 AI를 위한 프로그래밍 소개와 같은 더 기술적인 기초로 풍부해질 수 있다.
  3. 적절한 데이터 처리: AI에서 데이터의 중요성, AI 시스템이 데이터로 어떻게 훈련되는지, 그리고 해적행위와 프라이버시 문제로부터 자신을 어떻게 보호할 수 있는지에 대한 논의.
  4. AI를 실제 사례에 응용(AI in Practice): 의료, 금융, 교통, 엔터테인먼트와 같은 다양한 분야에서의 AI의 실제 응용. 이는 AI 구현의 이점과 과제를 모두 포함해야 한다.
  5. 인간-AI 상호작용: 인간과 AI 시스템이 어떻게 함께 작업할 수 있는지 이해하는 것. 이는 인간 개입 시스템(human-in-the-loop systems), AI 증강, AI와 함께하는 미래의 직업 등의 주제를 포함한다. (Understanding how humans and AI systems can work together, including topics like human-in-the-loop systems, AI augmentation, and the future of work with AI.)
  6. AI와 창의성: 예술, 음악, 글쓰기와 같은 창의적 과정에서 AI의 역할을 탐구하고, AI 생성 콘텐츠의 의미를 살펴본다. (Exploring the role of AI in creative processes, such as in art, music, and writing, and the implications of AI-generated content.)
  7. AI에 대한 비판적 사고: AI 뉴스, 연구, 주장을 비판적으로 평가하는 능력을 개발한다. AI 과대 선전과 현실을 구별하는 방법을 이해한다. (Developing skills to critically assess AI news, research, and claims. Understanding how to differentiate between AI hype and reality.)
  8. AI 거버넌스와 정책: AI 안전, 표준, 국제적 관점을 포함한 AI를 둘러싼 규제 및 정책 환경의 개요.
  9. AI의 미래 동향과 연구: AI 연구의 최첨단 분야와 AI 기술의 미래 발전에 대한 예측을 살펴본다.
  10. 실습 경험(Hands-on Experience): 학생들이 실제 또는 시뮬레이션된 시나리오에서 AI 개념과 도구를 적용할 수 있는 실용적인 연습, 사례 연구 또는 프로젝트. (Practical exercises, case studies, or projects that allow students to apply AI concepts and tools in real or simulated scenarios.)
  11. 윤리적 AI 설계 및 개발: 윤리적이고 책임감 있으며 지속 가능한 방식으로 AI를 설계하고 개발하는 원칙. 이는 편향된 AI의 위험과 사회에 미치는 영향도 포함한다.
  12. 모두를 위한 AI 리터러시: 기술적 또는 과학적 배경을 가진 사람들 뿐만 아니라 다양한 배경의 사람들이 접근하고 이해할 수 있도록 내용을 맞춤화한다. (Tailoring content to ensure it is accessible and understandable to people from diverse backgrounds, not just those with a technical or scientific background.)
  13. 프롬프트 엔지니어링(Prompt Engineering): AI 모델이 제공된 작업을 따르고 적절한 응답을 생성하도록 프롬프팅하는 데 가장 효과적인 방법을 이해하는 것. (Understanding what methods are most effective in prompting AI models to follow provided tasks and to generate adequate responses.)

현재 학교에서 AI 리터러시를 구현하려는 특정 프로젝트들이 있다(Tseng & Yadav, 2023). 의도적인 목표는 궁극적으로 학생들을 AI의 책임 있는 사용으로 이끄는 것이지만, 이를 위해서는 AI에게 어떻게 "말해야" 그것이 해야 할 일을 하는지 이해해야 한다. 이는 학생들이 효과적인 프롬프트 엔지니어가 되어야 함을 의미한다.

교육학적 도구로서의 프롬프트 엔지니어링

프롬프트 엔지니어링의 핵심은 AI 시스템에서 원하는 응답이나 행동을 이끌어내기 위한 입력을 전략적으로 만드는 것이다. 교육 환경에서 이는 학생들을 참여시킬 뿐만 아니라 비판적이고 창의적으로 생각하도록 도전하는 프롬프트를 설계하는 것으로 해석된다. 프롬프트 엔지니어링의 기술은 AI를 단순한 정보 저장소에서 더 깊은 학습과 이해를 자극하는 상호작용적 도구로 변환하는 능력에 있다([[Unggi Lee, Haewon Jung, Younghoon Jeon, Younghoon Sohn, Wonhee Hwang, Jewoong Moon, Hyeoncheol Kim, 2024]]참조). 교육에서 프롬프트 엔지니어링의 관련성은 아무리 강조해도 지나치지 않다. AI가 점점 더 정교해지고 학습 환경에 통합됨에 따라, 이러한 시스템과 효과적으로 소통하는 능력이 중요해진다. 프롬프트 엔지니어링은 교육자들이 교육 경험을 향상시키는 방식으로 AI 상호작용을 안내할 수 있게 한다. 이는 개별 학생의 필요와 능력에 맞춰 조정할 수 있는 맞춤형 학습 시나리오를 만들 수 있게 하여 학습을 더 참여적이고 효과적으로 만든다(Eager & Brunton, 2023).

프롬프트 엔지니어링의 가장 중요한 영향 중 하나는 학습 경험을 향상시키고 비판적 사고를 육성할 수 있는 잠재력이다. 프롬프트를 신중하게 설계함으로써, 교육자들은 학생들이 다양한 관점에서 문제에 접근하고, 정보를 비판적으로 분석하며, 창의적으로 해결책을 개발하도록 장려할 수 있다. 이 접근 방식은 주제에 대한 이해를 깊게 할 뿐만 아니라 오늘날의 빠르게 변화하는 세계에서 필수적인 역량인 비판적 사고 기술을 연마한다. 한 특정 연구에서 보여주듯이, 교실에서 효과적으로 프롬프트하는 법을 배우는 것은 학생들이 AI의 한계에 대해 더 많이 깨닫게 하여 결국 그들의 AI 리터러시를 촉진할 수 있다(Theophilou et al., 2023). 더욱이 AI는 매우 상호작용적이고 즐거운 교육 환경을 만들 수 있는 잠재력이 있다. 적절한 프로그램을 통해 AI를 통한 게임 기반 학습에도 구현될 수 있다. 이러한 조합은 전통적인 학습 패러다임을 변화시켜 교육을 더 접근 가능하고, 즐겁고, 영향력 있게 만들 잠재력이 있다(Chen et al., 2023).

최근에는 지속적으로 개선되고 있는 성공적인 프롬프팅 방법론이 몇 가지 등장했다. 프롬프트 엔지니어링은 실험적 분야로, 시행착오를 통해 입력 프롬프트를 수정하고 형성하여 더 나은 출력을 만들어낼 수 있다. 과학적 분야로서 AI 자체가 AI 시스템과 상호작용하는 새로운 방법을 찾는 데 도움을 줄 수 있다. 가장 관련성 있는 프롬프팅 방법들은 표 4에 요약되어 있으며 이후에 설명할 것이다.

언어 모델을 프롬프트하는 데는 두 가지 주요 형태가 있다: (i) 제로샷(Zero-Shot) 프롬프트, (ii) 퓨샷(Few-Shot) 프롬프트. 제로샷 프롬프트는 가장 직관적인 대안으로, ChatGPT와 같은 모델과 상호작용할 때 우리 대부분이 주로 사용하는 방식이다. 이는 추가적인 세부 사항 없이 간단한 프롬프트를 제공하고 비특정적인 응답을 생성하는 것으로, 광범위한 문제나 데이터가 많지 않은 상황을 다룰 때 유용하다. 퓨샷 프롬프팅은 작업을 어떻게 완료해야 하는지에 대한 여러 예시로 프롬프트를 풍부하게 만드는 기술이다. 이는 이미 구체적인 아이디어나 데이터가 있는 복잡한 쿼리를 다룰 때 유용하다. 이름에서 알 수 있듯이, 이러한 "샷"은 열거될 수 있다(Dang et al., 2022; Kojima et al., 2022; Tam, 2023 기반):

• 제로샷 프롬프트: 특정 예시가 추가되지 않는다.
• 원샷 프롬프트: 하나의 특정 예시가 프롬프트에 추가된다.
• 투샷 프롬프트: 두 개의 예시가 프롬프트에 추가된다.
• 쓰리샷 프롬프트: 세 개의 예시가 프롬프트에 추가된다.
• 퓨샷 프롬프트: 여러 개의 예시가 프롬프트에 추가된다(몇 개인지 지정되지 않음).

이러한 프롬프팅 방법은 점진적으로 발전하여 더 복잡해졌으며, 입력-출력 프롬프팅에서 시작하여 사고 트리 프롬프팅(Tree-of-Thought Prompting)에 이르기까지 발전했다. 이는 표 4에 표시되어 있다.

![[table4.png]]

일반적으로 사람들이 AI에 프롬프트를 시작할 때, "...에 대해 말해줘"와 같은 간단한 프롬프트로 시작한다. 이렇게 사용자는 간단한 입력 프롬프트를 삽입하고 다소 비특정적이고 일반화된 출력 응답이 생성된다. 답변이 더 구체적이어야 할수록 입력 프롬프트도 더 구체적이고 좁아져야 한다. 이를 입력-출력 프롬프트(IOP)라고 하며, AI가 프롬프트되는 가장 간단하고 일반적인 형태이다(Liu et al., 2021). 입력에서 출력으로 직선적으로 이어지는 것보다 AI가 몇 가지 추론 단계를 삽입할 때 결과가 훨씬 더 좋아진다는 것이 밝혀졌다(Wei et al., 2023). 이를 사고 연쇄(Chain-of-Thought, CoT) 프롬프팅이라고 하며, 기계에게 특정 결과로 이어지는 추론 단계를 설명하도록 요청한다. 역사적으로 잘 작동한 프레임워크는 AI에게 "단계별로" 해결책을 제공하도록 프롬프트하는 것이다. 실제로 ChatGPT나 다른 LLM에 작업을 주고 단순히 "이것을 단계별로 수행하세요."라고 추가하는 것이 가능하다. 흥미롭게도, 실험에서는 시스템에게 먼저 "깊은 숨을 쉬라"고 말할 때 결과가 더 좋아진다는 것이 밝혀졌다. 따라서 "깊은 숨을 쉬고 단계별로 수행하세요"라는 추가 문구가 모든 프롬프트에 대한 인기 있는 추가 사항이 되었다(Wei et al., 2023). 결과를 개선하기 위해 모든 프롬프트에 추가할 수 있는 이러한 일반적인 추가 문구는 때때로 "보편적이고 전이 가능한 프롬프트 접미사"라고 불리며, LLM을 성공적으로 제한 해제(jailbreak)하는 방법으로 자주 사용된다(Zou et al., 2023).

또 다른 프롬프트 엔지니어링 개선점은 내러티브 역할극이 상당히 더 나은 결과를 낼 수 있다는 발견이다. 이는 LLM에게 특정 역할을 가진 사람의 입장에 서도록 요청하는 것을 의미하며, 이는 일반적으로 모델이 제공하는 답변에서 훨씬 더 구체적이 되도록 돕는다. 종종 이는 전문가 프롬프팅(Expert Prompting, EP)으로 알려진 특정 형태의 역할극을 통해 이루어진다. 이 아이디어는 모델이 전문가의 역할을 맡아야 한다는 것이다(먼저 전문가의 역할이 자세히 설명됨). 그런 다음 전문가의 관점에서 결과가 생성된다. 이것이 AI가 응답에서 훨씬 더 구체적이고 덜 모호해지도록 프롬프트하는 방법이라는 것이 입증되었다(Xu et al., 2023).

CoT-프롬프팅을 명시적으로 기반으로 하여, 자기 일관성(Self-Consistency, SC) 프롬프팅으로 알려진 또 다른 개선점이 발견되었다. 이는 "단계별로 설명하세요..."와 같은 CoT-문구를 의도적으로 사용하지만, 여기에 하나의 추론 라인뿐만 아니라 여러 개를 추구해야 한다는 점을 추가한다. 이러한 모든 라인이 동등하게 viable하지 않을 수 있고 우리가 모두를 직접 분석하고 싶지 않을 수 있기 때문에, 모델은 주어진 기준에 비추어 어떤 라인이 가장 의미 있는지 구별하기 위해 추론 능력을 확장해야 한다. SC-프롬프팅을 사용하는 이유는 AI 환각(AI가 사실이 아닌 것을 발명할 수 있음을 의미)의 위험을 최소화하고 따라서 모델이 생성된 해결책이 잠재적으로 잘못되거나 이상적이지 않을 수 있는지 스스로 해결하도록 하기 위함이다(Wang et al., 2023). 실제로 자기 일관성을 강제하는 두 가지 방법이 있을 수 있다:

*일반화된 자기 일관성(Generalized Self-Consistency)*: 모델은 스스로 왜 한 추론 라인이 가장 의미 있는지 결정하고 그 이유를 설명해야 한다.
예시: "생성된 각 해결책을 논의하고 어떤 것이 가장 가능성이 있는지 설명하세요."(“Discuss each of the generated solutions and explain which one is most plausible.”)

*기준 기반 자기 일관성*: 모델에 어떤 추론 라인이 가장 잘 성립하는지 평가하는 데 사용해야 하는 특정 정보(또는 기준)가 제공된다.
예시: "사람들이 대칭적인 얼굴을 좋아한다는 사실을 존중하고 싶다는 점을 고려할 때, 이 초상화들 중 어느 것이 가장 아름다운가요? 당신의 생각을 설명하고 얼굴 대칭의 개념도 포함시키세요."(“Given that we want to respect the fact that people like symmetric faces, which of these portraits is the most beautiful? Explain your thoughts and also include the notion of face symmetry.”)

때때로 우리는 기계를 선호하는 응답으로 안내하기 위한 좋은 프롬프트를 만드는 방법을 모르는 상태에서 약간 창의력이 부족하다고 느낄 수 있다. 이를 여기서는 프롬프트 관점에서의 백지 상태 문제(prompt-wise tabula-rasa problem)라고 부르는데, 이는 어떻게 시작해야 할지 모르는 채로 "백지" 앞에 앉아있는 것 같은 느낌이기 때문이다. 이러한 경우, 우리를 도와주는 두 가지 프롬프트 기법이 있다. 하나는 자동 프롬프트 엔지니어(Automatic Prompt Engineer, APE)라고 불리고 다른 하나는 생성된 지식 프롬프팅(Generated Knowledge Prompting, GKn)으로 알려져 있다. APE는 하나 또는 여러 개의 예시(텍스트, 음악, 이미지 또는 모델이 작업할 수 있는 다른 것들)로 시작하여 AI에게 이러한 것들을 생성하는 데 가장 잘 작동할 프롬프트가 무엇인지 물어보는 것을 목표로 한다(Zhou et al., 2023). 이는 우리가 이미 좋은 응답이 어떻게 보일지 알고 있지만 모델을 이 결과로 안내하는 방법을 모를 때 유용하다. 예를 들면: "여기 내가 좋아하는 책에서 나온 연애 편지가 있습니다. 나는 내 파트너에게 비슷한 것을 쓰고 싶지만 어떻게 해야 할지 모르겠습니다. AI에게 비슷한 스타일로 편지를 만들도록 프롬프트하는 방법의 예를 몇 가지 제공해 주세요." 그 결과는 사용자가 선호하는 프롬프트의 개선 작업을 시작하는 데 도움이 될 수 있는 몇 가지 초기 프롬프트 목록이 되어, 결국 사용자의 취향에 맞는 편지를 만들 수 있게 된다. 이는 기본적으로 가능한 프롬프트를 생각해내는 어려운 작업을 컴퓨터에 맡기고 사용자의 일을 결과로 나온 제안을 다듬는 것으로 한정한다.

유사한 방법으로 생성된 지식(Generated Knowledge, GKn) 프롬프팅이 알려져 있는데, 이는 모델이 작동할 수 있는 "장면을 설정"하는 것이 가장 좋다고 가정한다. EP와 APE 프롬프팅 모두와 유사점이 있는데, 여기서는 AI가 정보를 끌어낼 수 있는 참조로 작용할 내러티브 프레임워크가 구축되지만, APE에서와 같이 지식은 인간이 제공하는 것이 아니라 기계 자체가 생성한다(Liu et al., 2022). 예를 들면: "언어학이 완벽한 시가 어떻게 보여야 하는지에 대해 우리에게 말해주는 바를 설명해 주세요. 이에 대한 기준은 무엇인가요? 세 가지 예를 제공해 주실 수 있나요?" 무대가 설정되면 실제 과제를 시작할 수 있다: "이 정보를 바탕으로 ...에 대한 시를 써주세요." 생성된 지식 작업을 만드는 두 가지 방법이 있다: (i) 단일 프롬프트 접근법, (ii) 이중 프롬프트 접근법. 첫 번째는 단순히 모든 정보를 하나의 프롬프트 내에 배치하고 모델을 실행한다. 두 번째는 두 개의 개별 단계로 작업한다:

단계 1: 먼저 주제에 대한 몇 가지 사실을 생성한다(하나의 프롬프트)
단계 2: 이것이 완료되면, 모델에게 이 정보로 무언가를 하도록 다시 프롬프트한다(다른 프롬프트)

AI 시스템이 점점 더 긴 컨텍스트 윈도우(모델이 "기억"할 수 있는 현재 대화의 부분, 작업 메모리와 같은)를 갖추고 있지만, 윈도우의 시작과 끝에 있는 데이터에 더 강하게 의존하는 것으로 나타났다(Liu et al., 2023). 따라서 프롬프트 내의 모든 정보가 모델에 의해 동등하게 가중치를 두고 관련성이 있다고 간주되지 않는다는 증거가 있기 때문에, 일부 경우에는 이중 프롬프트 또는 심지어 다중 프롬프트 접근법이 더 나은 결과를 낼 수 있다.

현재까지 아마도 가장 복잡한 방법은 사고 트리(Tree-of-Thought, ToT) 프롬프팅으로 알려져 있다. Yao et al. (2023)의 획기적인 논문은 이 방법을 소개하며 커뮤니티에서 상당한 주목을 받았는데, 이는 중요한 개선을 설명하고 이전 방법들의 단점도 강조했기 때문이다. ToT는 CoT와 SC-프롬프팅의 조합을 사용하고, 이를 바탕으로 가장 좋은 추론 라인에 수렴하기 위해 앞뒤로 갈 수 있다는 아이디어를 구축한다. 이는 다음 수를 둘 수 있는 많은 가능성이 있고 플레이어가 머릿속으로 여러 시나리오를 생각해야 하며, 정신적으로 특정 말들을 앞뒤로 움직이고, 결국 어떤 것이 다음 최선의 수인지 결정하는 체스 게임과 유사하다. 예를 들어, 이렇게 생각해보자: 각각 다른 의견을 가진 세 명의 전문가가 있다고 상상해보자. 그들은 각자 잘 생각한(단계별) 방식으로 자신의 주장을 펼친다. 한 사람이 논리적 실수를 하면, 그 전문가는 이를 인정하고 이전 위치로 돌아가 다른 경로를 취한다. 전문가들은 모두가 최선의 결과에 동의할 때까지 서로 논의한다. 이 컨텍스트는 ToT-컨텍스트라고 불릴 수 있으며, 특정 작업에 관계없이 적용된다. 작업 자체는 특정 문제를 해결하기 위한 쿼리이다. 따라서 간단한 예는 다음과 같을 것이다:

  1. ToT-컨텍스트:
    "특정 문제를 논의하는 해당 분야의 세 명의 전문가가 있다고 상상해보세요. 그들은 각자 단계별로 자신의 주장을 펼칩니다. 그들은 처음에 모두 다른 의견을 가지고 있습니다. 각 단계 후, 그들은 어떤 주장이 가장 좋은지 논의하고 각자 자신의 입장을 방어해야 합니다. 명백한 실수가 있다면, 전문가는 이를 인정하고 이전 위치로 돌아가 그 위치와 관련된 다른 주장의 경로를 취할 것입니다. 다른 가능한 경로가 없다면, 전문가는 여전히 논의 중인 가장 가능성 있는 해결책에 동의할 것입니다. 이는 모든 전문가가 사용 가능한 최선의 해결책에 동의할 때까지 계속되어야 합니다."
  2. 작업:
    "특정 문제는 다음과 같습니다: Thomas가 수영하러 간다고 상상해보세요. 그는 타올을 들고 탈의실로 들어갑니다. 그는 시계를 타올 안에 감싸고 수영장 옆 의자로 가져갑니다. 의자에서 그는 타올을 펴고 자신을 말립니다. 그런 다음 매점으로 갑니다. 거기서 그는 타올을 잊어버리고 수영장으로 뛰어듭니다. 나중에 그는 시계를 잃어버렸다는 것을 깨닫습니다. Thomas가 시계를 잃어버렸을 가능성이 가장 높은 장소는 어디일까요?"

현재 저자의 실험에 따르면 GPT-3.5는 입력-출력 프롬프팅으로 물었을 때 이 작업에 대해 잘못된 답변을 제공한다. 그러나 ToT-프롬프팅으로 물었을 때는 응답이 정확한 것으로 나타났다. GPT-4는 때때로 프롬프트 없이도 유사한 방법을 구현하지만, 종종 자동으로 그렇게 하지는 않는다. ToT의 이전 버전은 프롬프트 앙상블(Prompt Ensembling) 또는 DiVeRSe(Diverse Verifier on Reasoning Steps)로 알려져 있었으며, 세 단계 프로세스로 작동했다: (i) 다양한 답변을 생성하기 위해 여러 프롬프트 사용; (ii) 좋은 응답과 나쁜 응답을 구별하기 위해 검증기 사용; (iii) 추론 단계의 정확성을 확인하기 위해 검증기 사용(Li et al., 2023).

때때로 AI의 모범 사례에 대해 어느 정도 임의성이 있는 것 같은데, 이는 모델이 훈련된 방식과 관련이 있을 수 있다. 예를 들어, GPT에게 "깊은 숨을 쉬라"고 말하는 것이 실제로 더 나은 결과를 가져오는 것으로 보이지만, 이는 또한 이상해 보인다. 가장 가능성 있는 것은 이것이 훈련 자료(nota bene 공개적으로 사용 가능한 인터넷 데이터의 큰 부분을 포함함)에서 이 진술이 더 미묘한 행동과 연관되어 있기 때문일 수 있다. 최근에 한 실험자가 또 다른 이상한 AI 행동을 발견했다: 그가 ChatGPT에 가상의 금전적 팁으로 인센티브를 제공했을 때, 응답이 상당히 더 나아졌고 - 그가 약속한 팁이 많을수록 결과가 더 좋아졌다(Okemwa, 2023). 한동안 널리 알려진 또 다른 흥미로운 특징은 소위 "적대적 프롬프트(adversarial prompts)"로 AI를 방해할 수 있다는 것이다. 이는 Daras와 Dimakis (2022)가 "DALLE-2의 숨겨진 어휘 발견(Discovering the Hidden Vocabulary of DALLE-2)"이라는 제목의 논문에서 두 가지 예로 보여주었다:

예시 1: "산의 그림"이라는 프롬프트(실제로 산을 보여주는)는 "turbo lhaff✓"라는 접두사가 프롬프트에 추가되었을 때 개의 그림으로 변형되었다. (The prompt “a picture of a mountain” (showing in act a mountain” was transformed into a picture of a dog when the prefix “turbo lhaff✓” was added to the prompt.)

예시 2: "Apoploe vesrreaitais eating Contarra ccetnxniams luryca tanniounons"라는 프롬프트는 일관되게 베리를 먹는 새들의 이미지를 생성했다. (The prompt “Apoploe vesrreaitais eating Contarra ccetnxniams luryca tanniounons" reliably generated images of birds eating berries.)

우리 인간에게는 "turbo lhaff✓"라는 글자에 개와 관련된 것이 없다. 그러나 Dall-E는 항상 개의 그림을 생성하고 예를 들어 산을 개로 변형시켰다. 마찬가지로 "Apoploe vesrreaitais"가 새와 관련이 있거나 "Contarra ccetnxniams luryca tanniounons"가 베리와 관련이 있다고 가정할 이유가 없다. 그럼에도 불구하고 모델은 매번 이렇게 작업을 해석했다. 이는 AI가 훈련되는 절차에 따라 예상치 못한 방식으로 처리를 수정할 수 있는 특정 프롬프트가 있음을 의미한다. 이는 현재 기계론적 해석 가능성(Mechanistic Interpretability)이라는 분야에서 연구 대상인, 인공 신경망 내의 수학적 연산에서 이러한 창발적 속성이 어떻게 깨어나는지에 대한 명확한 이해가 아직 없기 때문에 여전히 잘 이해되지 않고 있다(Conmy et al., 2023; Nanda et al., 2023; Zimmermann et al., 2023).

AI를 통한 비판적 사고 함양

AI 교육의 맥락에서 비판적 사고는 AI 주도 환경의 틀 내에서 정보를 분석하고, 다양한 관점을 평가하며, 합리적인 논증을 만드는 능력을 포함한다. 이 기술은 AI가 삶과 일의 다양한 측면에서 더욱 보편화됨에 따라 점점 더 중요해지고 있다. 교육 환경에서 AI는 단순히 콘텐츠를 전달하는 도구가 아니라 학생들이 제시된 정보에 대해 질문하고, 분석하며, 깊이 생각하도록 장려하는 데 사용될 수 있다(van den Berg & du Plessis, 2023). 교육에서 AI의 사용은 비판적 사고를 육성할 수 있는 독특한 기회를 제공한다. 방대한 데이터베이스와 분석 능력을 갖춘 AI 시스템은 학생들에게 단순한 암기나 기본적인 이해 이상을 요구하는 복잡한 문제와 시나리오를 제시할 수 있다. 이러한 시스템은 학생들이 이러한 문제를 해결하기 위해 분석, 종합, 평가와 같은 고차원적 사고 기술을 사용하도록 도전할 수 있다. 더욱이 AI는 학생들의 개별 학습 스타일과 능력에 맞는 개인화된 학습 경험을 제공할 수 있다. 이러한 개인화는 학생들이 자신에게 적합한 수준에서 자료에 참여할 뿐만 아니라 인지적 경계를 넓히도록 도전받는다는 것을 보장한다. 학생들에게 근접 발달 영역 내의 과제를 제시함으로써, AI는 비판적 사고를 향상시키기 위해 학습 경험을 효과적으로 지원할 수 있다(Muthmainnah et al., 2022).

따라서 AI 리터러시 과정에서 비판적 사고의 통합은 중요한 고려 사항이다. 학생들이 AI, 그 능력, 그리고 한계에 대해 배우면서, 그들은 기술 자체에 대해 비판적으로 생각하도록 장려된다. 여기에는 AI의 윤리적 함의, AI 시스템에 존재할 수 있는 편향, 그리고 AI가 사회에 미치는 영향을 이해하는 것이 포함된다. 이러한 논의를 AI 리터러시 과정에 통합함으로써, 교육자들은 학생들이 기술적으로 능숙할 뿐만 아니라 윤리적으로나 비판적으로도 인식하고 있음을 보장할 수 있다(Ng et al., 2021). 인공지능의 영향 아래 급속히 진화하는 세계에서 학생들이 직면하는 여러 가지 도전이 있으며, 비판적 사고 기술이 당면한 문제들에 대비하는 가장 성공적인 방법으로 보인다. 표 5는 학생들이 직면하는 주요 문제들과 비판적 사고 조치가 이를 어떻게 상쇄할 수 있는지를 개략적으로 보여준다.

![[Table5.png]]

교육 지원(scaffolding)의 개념은 디지털 및 AI 주도 맥락에서 학생들의 비판적 사고 기술을 육성하는 데 도움이 된다. 강사, 교사, 감독자, 멘토가 적용할 수 있는 여러 형태의 지원이 있다(Pangh, 2018):

• 프롬프트 지원: 교사는 도움이 되는 맥락이나 힌트를 제공하고 학생들이 주제를 더 잘 이해하고 파악할 수 있는 길로 인도하기 위해 특정 질문을 한다.

• 명시적 성찰: 교사는 학생들이 특정 시나리오와 잠재적인 함정이 어디에 있는지 생각해 보도록 돕는다.

• 칭찬과 피드백: 교사는 좋은 작업이 수행된 곳에 대한 인정을 제공하고 학생이 어떻게 하고 있는지에 대한 질적인 검토를 제공한다.

• 활동 수정: 교사는 학생들이 AI와 유익하게 작업할 수 있는 대안 전략을 제안하여 책임 있는 사용을 촉진한다.

• 직접 지시: 명확한 과제와 지시를 제공함으로써, 학생들은 디지털 세계를 탐색하는 방법과 AI를 어떻게 사용할 수 있는지 배운다.

• 모델링: 교사는 학생들이 디지털 도구를 적절히 사용하는 데 실수하는 예를 강조하고 상호작용하는 데 어려움을 겪는 부분을 돕는다.

이는 비판적 사고가 AI 주도 세계를 적절히 다루기 위한 핵심 자원이며, 교육자들이 학생들을 디지털 성숙으로 이끄는 데 중요한 역할을 한다는 것을 보여준다.

AI 교육의 주요 도전과 기회 요약

AI 교육은 중요한 과제와 기회를 제시한다. 주요 과제로는 교육자들의 AI 기술과 교육학적 실천에 대한 지속적인 전문성 개발의 필요성이 있다. 교사들은 프롬프트 엔지니어링(prompt engineering)과 AI를 교육과정에 통합하는 훈련이 필요하며, 이는 AI 리터러시를 위해 재구성되어야 한다. 이러한 다학제적 접근은 컴퓨터 과학, 윤리학, 그리고 비판적 사고를 포함한다. 급속한 AI 발전은 교육자들을 뒤처지게 할 위험이 있어, 학생들이 교사의 지식을 앞서게 되면 잠재적으로 교실 관리 문제로 이어질 수 있다.

AI 도구에 대한 공평한 접근은 디지털 격차를 해소하고 교육 불평등을 방지하는 데 중요하다. 기술에 대한 투자와 공정한 접근 정책이 필요하며, 특히 소외된 지역에서 더욱 그러하다. 또 다른 과제는 AI 편향을 피하는 것으로, 다양하고 포용적인 훈련 데이터셋과 편향 인식에 대한 교육자 훈련이 필요하다. 더불어, AI 사용과 인간 상호작용 간의 균형을 맞추는 것이 사회적 고립을 방지하고 사회적 기술 발달을 촉진하는 데 필수적이다.

AI 통합 교육의 기회로는 개별 학생의 요구에 맞춰 다양한 학습 스타일과 인지 상태를 수용하는 개인화된 학습 시스템이 있다. AI는 AI 기반 음성 인식과 같은 도구를 통해 언어 처리나 감각 장애와 같은 특별한 요구를 가진 학생들을 지원할 수 있다. 윤리적 AI 개발은 필수적이며, 투명성, 편견 없는 콘텐츠, 그리고 프라이버시를 존중하는 관행에 초점을 맞춰야 한다. AI는 가상 현실과 증강 현실과 같은 혁신적인 콘텐츠 전달 방법을 가능하게 하며, 교육 행정과 정책 결정을 지원한다. 또한 전 세계 학생들을 연결하고 문화적 장벽을 초월하는 협력 학습을 촉진한다.

실용적인 제안

AI 리터러시 향상

교실과 학계에서 AI 리터러시를 향상시키기 위해서는 섬세한 접근이 필수적이다. AI 리터러시 과정의 개설은 귀중한 자산이 될 것이다. 이 과정들은 기존 교육과정에 통합되어 필수적인 AI 개념, 윤리적 고려사항, 그리고 실용적인 응용을 다루어야 한다. AI 리터러시를 다양한 과목에 걸쳐 통합하여 그 광범위한 영향을 보여주는 학제간 접근법을 채택하는 것이 중요하다.

미래의 교육 도구로서 AI의 역할을 간과해서는 안 된다. 개인화된 학습을 위한 AI 기반 도구를 통합하면 개별 학습 스타일과 요구에 맞춰 교육 환경을 혁신할 수 있다. AI는 또한 채점, 피드백, 그리고 상호작용하는 학습 경험을 생성하는 데 도움을 주는 교육 보조자 역할을 할 수 있다. 더 나아가 연구와 프로젝트 작업에서의 AI 역할도 장려되어야 하며, 학생들이 데이터 분석과 새로운 아이디어 탐색에 AI를 사용하도록 하면서 비판적이고 윤리적인 접근을 육성해야 한다.

특정 AI 도구들은 교육 도구 키트를 향상시키는 데 도움이 될 수 있다. 예를 들어, Teachino(http://www.teachino.io)는 교육과정 개발과 교실 관리에 유용할 수 있다. Perplexity(http://www.perplexity.ai)는 자연어 처리 능력과 정보를 외부 소스와 연결하는 능력을 통해 지식 검색을 향상시킬 수 있다. HelloHistory(http://www.hellohistory.ai)와 같은 앱은 고대 인물들을 생생하게 재현하여 개인화되고 상호작용적인 교육 환경을 만들 수 있다. 또한, Kahoot!(kahoot.it)와 Quizizz(quizizz.com) 같은 도구들은 학습 경험을 게임화할 수 있고, Desmos(http://www.desmos.com)는 복잡한 수학적 개념을 이해하는 상호작용적인 방법을 제공할 수 있다. 강사들은 AI 도구 환경의 지속적인 발전에 대해 계속 정보를 얻으려고 노력해야 한다. 이는 계속 변화하고 있으며, 한때 수백만 학생들을 즐겁게 했던 인기 있는 AI 앱인 Edmodo가 더 이상 존재하지 않는다는 사실에서도 볼 수 있다(Mollenkamp, 2022; Tegousi et al., 2020).

교육자의 AI 숙련도도 마찬가지로 중요하다. 교육자들을 위한 정기적인 훈련과 워크샵은 그들이 최신 AI 기술 발전에 뒤처지지 않도록 보장할 것이다. 동료 학습 네트워크를 구축하고 AI 전문가들과 협력하는 것은 이론적 지식과 실제 적용 사이의 간극을 좁힐 수 있으며, 이는 교육 경험을 풍부하게 할 것이다.

이 모든 노력의 중심에는 AI에 대한 비판적이고 윤리적인 접근 방식을 육성하는 것이 있다. 윤리적 논의는 학습 과정의 필수적인 부분이 되어야 하며, 학생들이 AI의 사회적 영향을 숙고하도록 장려해야 한다. 사례 연구와 가상 시나리오를 활용하여 AI 응용의 잠재적 이점과 과제를 탐구할 수 있다.

더욱이, AI 리터러시에 대한 평가는 기술적 지식뿐만 아니라 인공지능(Artificial Intelligence)의 역할과 영향을 비판적으로 평가할 수 있는 능력도 시험해야 한다.

교사와 학생들과 함께 프롬프트 엔지니어링 발전시키기

교육 환경에서 프롬프트 엔지니어링(prompt engineering)의 발전은 교사와 학생 모두의 학습 경험을 풍부하게 하는 독특한 방법을 제공한다. 프롬프트 엔지니어링을 구현하는 핵심은 관련된 모든 당사자에게 그 방법론을 교육하는 것이다. 이는 기본 원리를 가르치는 것뿐만 아니라 제로샷(zero-shot)과 퓨샷(few-shot) 프롬프팅의 차이, 사고 연쇄(chain-of-thought) 또는 자기 일관성(self-consistency) 프롬프트와 같은 기술의 적용 등 다양한 프롬프트 유형에 대해 깊이 있게 다루는 것을 포함한다. 교육자들은 AI 모델의 능력을 효과적으로 활용하여 다양한 과목의 학습 결과를 향상시키는 프롬프트를 설계하는 방법에 대해 훈련을 받아야 한다.

교육에서 프롬프트 엔지니어링의 성공적인 통합에는 강사와 학생 간의 협력이 중요한 역할을 한다. 학생들과 교사들이 함께 모여 다양한 프롬프트를 실험하는 전체 수업 협력 세션은 매우 효과적일 수 있다. 이러한 세션은 다양한 학습 목표와 AI 응용에 어떤 유형의 프롬프트가 최상의 결과를 내는지 파악하는 데 중점을 두어야 한다. 무엇이 효과적이고 무엇이 그렇지 않은지에 대한 경험을 공유하면 기술에 대한 집단적 이해와 개선으로 이어질 수 있다. 이러한 협력 연습은 또한 교사와 학생들이 서로의 성공과 도전으로부터 배우는 학습 커뮤니티를 조성한다.

각 교육 모듈에 프롬프트 엔지니어링을 포함하는 연습을 만드는 것도 중요한 단계이다. 이러한 연습은 모듈의 학습 목표에 맞춰 설계되어야 하며, 학생들에게 프롬프트 엔지니어링을 사용하여 문제를 해결하거나 주제를 탐구하는 실제 경험을 제공해야 한다. 예를 들어, 문학 수업에서 학생들은 프롬프트 엔지니어링을 사용하여 텍스트를 분석하거나 주제별 해석을 만들 수 있다. 과학 수업에서는 과학적 개념을 탐구하거나 복잡한 문제를 해결하기 위한 프롬프트를 설계할 수 있다.

이러한 연습은 학생들이 다양한 유형의 프롬프트를 실험하고, 각각의 미묘한 차이를 이해하며, 문구나 맥락의 미묘한 변화가 AI의 응답을 어떻게 변경시키는지 관찰하도록 장려해야 한다. 이는 주제에 대한 이해를 높일 뿐만 아니라 AI의 출력을 분석하고 해석하면서 비판적 사고 능력을 발전시킨다.

학습 경험을 더욱 풍부하게 하기 위해, 이러한 연습은 반성적 토론으로 보완될 수 있다. 프롬프트 엔지니어링 연습을 완료한 후, 학생들은 자신의 접근 방식, 직면한 도전, 얻은 통찰력에 대해 논의할 수 있다. 이러한 반성은 그들의 이해를 공고히 할 뿐만 아니라 문제 해결에서 AI 적용에 대해 비판적으로 생각하도록 장려한다. 이러한 연습은 학생들과 교직원 모두가 동시에 기술에 대해 많이 배우기 때문에 특히 강력하다.

교실에서 AI를 활용한 비판적 사고

워크샵은 현대 교육에서 비판적 사고 능력을 육성하는 유용한 도구가 될 수 있다. 이러한 워크샵은 AI의 기술적 측면뿐만 아니라 AI 사용 맥락에서 비판적 사고 능력을 개발하는 데 초점을 맞춰야 한다. 학생들과 교사들이 AI 도구를 다루고, 그 결과를 분석하며, 신뢰성과 적용 가능성을 비판적으로 평가할 수 있는 실습 활동을 포함해야 한다. 워크샵은 또한 AI 알고리즘의 편향성 식별, AI의 한계 이해, AI 결정의 윤리적 함의 평가 등의 주제를 다룰 수 있다.

사례 연구는 AI의 윤리적 차원을 이해하는 데 중요한 역할을 한다. 이는 윤리적 함의가 강조되는 다양한 시나리오를 포함하도록 신중히 선택되어야 한다. 이러한 사례 연구를 통해 학생들은 AI의 결정이 중요한 결과를 초래하는 실제 상황을 검토할 수 있으며, 이는 AI 기술의 도덕적, 사회적 영향에 대해 생각하도록 장려한다. 토론은 학생들이 다양한 관점을 토론하도록 장려하여 비판적 분석과 윤리적 추론의 환경을 조성해야 한다.

학생들과 교사들이 AI 관련 문제를 제기할 수 있는 기관 채널을 설립하는 것은 개방적 소통과 지속적 학습의 문화를 조성하는 데 필수적이다. 이러한 채널은 AI에 대한 아이디어, 우려사항, 경험이 공유되고 논의되며 탐구되는 혁신 퍼널(innovation funnel)처럼 기능할 수 있다. 이는 온라인 포럼, 정기적인 모임, 또는 제안함의 형태를 취할 수 있다. 이러한 플랫폼은 교육 환경에서 AI를 책임감 있고 효과적으로 사용하는 방법에 대한 새로운 아이디어의 인큐베이터 역할을 할 수 있다.

교육 기관에서 AI 채택 문화를 조성하는 것이 중요하다. 이 문화는 윤리적 AI 사용, 지속적 학습, 기술과의 비판적 참여 원칙에 기반해야 한다. 이는 단순히 AI 도구를 구현하는 것뿐만 아니라 AI에 대해 질문하고, 탐구하며, 비판적으로 평가하는 것이 장려되는 환경을 조성하는 것을 포함한다. 이 문화는 정책 수립부터 교실 활동까지 기관의 모든 수준에 퍼져야 한다.

학생들이 AI의 잠재력과 한계에 대해 질문하고 탐구하도록 장려하는 것은 이러한 기술에 대한 더 깊은 이해와 책임감 있는 사용으로 이어질 수 있다. 이는 AI가 취업 시장에 미치는 영향, 개인정보 보호 문제, 의사 결정 과정에서 AI의 함의 등의 주제에 대한 토론을 촉진하는 것을 포함한다. 이러한 주제에 대한 비판적 사고를 장려함으로써, 학생들은 AI에 대한 미묘한 이해를 발전시킬 수 있으며, AI 주도의 세계를 탐색하는 데 필요한 기술을 갖추게 된다.

결론: AI의 교육적 복잡성과 잠재력 탐색

교육 분야에서의 AI는 교수법과 학습 방법론을 근본적으로 재정의하는 변혁의 시대를 나타낸다. 이 논문은 AI의 광범위한 역할을 비판적으로 검토하였으며, 특히 교육 환경에서 AI 리터러시(AI literacy), 프롬프트 엔지니어링(prompt engineering), 그리고 비판적 사고 능력 개발의 뉘앙스에 초점을 맞추었다. 이 새로운 패러다임을 탐구하면서, 그 여정은 비할 데 없는 기회로 가득 차 있지만, 동시에 예리한 주의와 전략적 접근이 필요한 중대한 도전들로 가득 차 있다.

교육에서 AI가 제공하는 가장 compelling한 전망 중 하나는 학습 경험의 개인화이다. 각 학생의 고유한 학습 스타일과 요구에 맞춰 교육 내용을 조정할 수 있는 AI의 능력은 더욱 매력적이고 효과적인 교육 여정을 가능하게 한다. 또한, 이 기술은 특별한 도움이 필요한 학생들을 지원하는 데 있어 주목할 만한 잠재력을 보여주었으며, 이를 통해 학습 환경의 포용성과 접근성을 향상시킨다. 더불어, AI 리터러시, 프롬프트 엔지니어링, 비판적 사고 능력에 대한 집중은 학생들을 기술 주도의 세계의 복잡성에 대비시키며, 미래에 필수적인 역량을 갖추게 한다.

그러나 이러한 발전은 그들만의 일련의 과제들을 수반한다. 주요 관심사는 급속도로 발전하는 AI 환경에서 교육자들의 준비 상태이다. 교사들이 AI 도구를 그들의 교육학적 실천에 효과적으로 통합할 수 있도록 지속적이고 포괄적인 훈련이 중요하다. 교육에서 AI의 윤리적, 사회적 함의 역시 동등하게 중요하다. AI의 통합은 편견을 해결하고, 프라이버시와 보안을 보장하며, 윤리적 사용을 촉진하기 위한 비판적 접근을 필요로 한다. 또 다른 중요한 장애물은 AI 자원에 대한 접근성이다. 교육적 격차가 더 벌어지는 것을 방지하기 위해 이러한 도구들에 대한 공평한 접근을 보장하는 것이 필수적이다. 또한, 학생들과 교육자들 사이에서 AI에 대한 비판적 사고방식을 개발하는 것은 이러한 기술들의 잠재력을 책임감 있게 활용하는 데 근본적이다. 아마도 가장 중요한 위험은 학생들과 교육자들이 AI 시스템의 한계(예: 매우 권위 있게 들리면서도 종종 환각(hallucinate)을 일으키고 잘못된 답변을 제공할 수 있다는 사실)를 존중하지 않고 사용한다는 점일 것이다.

미래를 내다보며, 교육에서의 AI 통합을 발전시키는 데 중요한 몇 가지 연구 및 개발 방향이 제시된다:

  1. 교육과정 통합: 향후 연구는 다양한 교육 수준과 분야에 걸쳐 AI 리터러시를 효과적으로 통합하는 방법을 탐구해야 한다.
  2. 윤리적 AI 개발: 교육에서의 윤리적 AI 통합을 위해 투명하고, 편견 없으며, 학생의 프라이버시를 존중하는 AI 도구를 개발하고 구현하는 방법을 연구하는 것이 필수적이다.
  3. 정책 결정에서의 AI: AI가 교육 정책 결정과 행정을 어떻게 도울 수 있는지 이해하는 것은 교육 프로세스를 간소화하고 가치 있는 통찰력을 제공할 수 있다.
  4. 교육에서의 문화적 변화: 교육 기관이 비판적이고 윤리적인 AI 사용 문화를 조성하고, 지속적인 학습과 적응을 촉진하는 방법에 대한 연구가 중요하다.
  5. 종단 연구: AI 통합이 학습 결과, 교사 효과성, 학생 웰빙에 미치는 장기적 영향을 평가하기 위한 종단 연구가 필요하다. 지금까지는 기술의 새로움으로 인해 이러한 연구가 불가능했다.

AI에 의해 강화된 교육의 미래는 막대한 잠재력을 지니고 있으며, 책임감 있고 윤리적인 실천에 초점을 맞춰 그 복잡성을 탐색하는 것이 그 잠재력을 완전히 실현하는 데 핵심이 될 것이다. 본 논문은 이것이 AI 리터러시, 프롬프트 엔지니어링 전문성, 비판적 사고 능력의 구현을 통해 효과적으로 이루어질 수 있다고 주장하였다.

댓글