هوش مصنوعی و آینده آموزش: فرصت‌ها، چالش‌ها و نقش حیاتی انسان در عصر نوین یادگیری

نویسنده :دکتر سعید جوی زاده

چکیده: هوش مصنوعی (AI) و به ویژه هوش مصنوعی مولد (Generative AI)، در دو سال اخیر با سرعتی بی‌سابقه در تمام بخش‌ها، از جمله آموزش، گسترش یافته است. این فناوری نوظهور، موضوع اصلی “انجمن آموزش اسکویت” سال 2024-25 در دانشکده تحصیلات تکمیلی هاروارد (HGSE) بوده و توجهات بسیاری را به خود جلب کرده است. با وجود نگرانی‌های مشروع در مورد تقلب، محتوای مغرضانه یا توهم‌زا و جایگزینی تفکر عمیق، بسیاری از متخصصان فرصت‌های بی‌نظیری را برای شخصی‌سازی آموزش و پشتیبانی از دانش‌آموزان و مربیان به روش‌های جدید می‌بینند. این مقاله به بررسی عمیق پتانسیل‌ها و چالش‌های هوش مصنوعی در محیط‌های آموزشی می‌پردازد، نقش حیاتی انسان را در هدایت این تحول فناوری برجسته می‌کند، و رویکردهای نهادهایی مانند وزارت آموزش ایالات متحده و شرکت‌هایی مانند گوگل را در طراحی و تنظیم مقررات این ابزارها تبیین می‌کند. در نهایت، بر اهمیت سواد هوش مصنوعی و نیاز به تحقیقات مستمر و همکاری بین همه ذینفعان برای شکل‌دهی آینده‌ای مسئولانه و عادلانه برای آموزش تاکید می‌شود.

مقدمه: طوفان هوش مصنوعی در افق آموزش

ورود و گسترش هوش مصنوعی مولد (Generative AI) به عرصه‌های مختلف زندگی بشر، پدیده‌ای است که در کمتر از دو سال اخیر، توجه و تخیل عمومی را به شدت به خود مشغول کرده است. سرعت پذیرش این ابزارها، که در تاریخ فناوری بی‌سابقه توصیف شده است، چیزی کمتر از “قابل توجه” نبوده است، و حوزه آموزش نیز از این قاعده مستثنی نیست. به گفته دین وست از دانشکده تحصیلات تکمیلی هاروارد (HGSE)، تنها زمانی که بازدید ماهانه از وب‌سایت ChatGPT کاهش یافت، در ژوئن 2023 بود، درست در پایان سال تحصیلی 2022-23. آمارهای خیره‌کننده نشان می‌دهد که تا ماه مه 2024، 82 درصد از دانشجویان مقطع کارشناسی در ایالات متحده و 72 درصد از دانش‌آموزان K-12 استفاده از هوش مصنوعی را در کارهای مدرسه‌شان گزارش کرده‌اند. نیمی از هر دو گروه نیز گزارش داده‌اند که چندین بار در هفته یا بیشتر از این ابزارها استفاده می‌کنند. این ارقام، خود گواه بر آن است که هوش مصنوعی دیگر یک پدیده دوردست نیست، بلکه واقعیتی حاضر و پویا در بطن سیستم آموزشی ماست.

این موج جدید فناوری، واکنش‌های دوگانه‌ای را برانگیخته است. گروهی از این ارقام با هشدار و نگرانی استقبال می‌کنند. دغدغه‌هایی نظیر تقلب دانش‌آموزان، قرار گرفتن در معرض محتوای مغرضانه یا توهم‌زا، یا صرفاً استفاده از ابزارهای هوش مصنوعی به عنوان جایگزینی برای تفکر عمیق که برای یادگیری ضروری است، مطرح می‌شود. در مقابل، گروهی دیگر ضمن اذعان به این خطرات، فراتر از آن‌ها به فرصت‌های بی‌نظیری می‌نگرند که هوش مصنوعی برای شخصی‌سازی آموزش و پشتیبانی از دانش‌آموزان و مربیان به روش‌های جدید ارائه می‌دهد.

اما یک نکته برای همه روشن است: هوش مصنوعی از هم‌اکنون در حال شکل‌دهی آینده آموزش است به گونه‌ای که همه ذینفعان این بخش – از سیاست‌گذاران و رهبران گرفته تا معلمان، دانش‌آموزان و والدین – باید آن را درک کنند. و نکته حائز اهمیت این است که فناوری‌ها به تنهایی آینده آموزش را شکل نمی‌دهند. بلکه تأثیر آن‌ها توسط نحوه پاسخگویی انسان‌ها در نقش‌های مختلف، تعدیل می‌شود. بنابراین، بحث‌هایی که در “انجمن آموزش اسکویت” مطرح شد، فرصتی بود تا دیدگاه‌های افرادی شنیده شود که نه تنها ناظر، بلکه مشارکت‌کنندگان فعال در این فرآیند شکل‌دهی تأثیر هوش مصنوعی هستند؛ در نقش‌های خود به عنوان سیاست‌گذاران، توسعه‌دهندگان ابزار، و پژوهشگران. این مقاله با الهام از همین مباحث، به تبیین دقیق‌تر این فرصت‌ها، چالش‌ها و رویکردهای لازم برای هدایت هوش مصنوعی در مسیر صحیح برای آینده آموزش خواهد پرداخت.

موج فراگیر هوش مصنوعی در آموزش

هوش مصنوعی (AI)، به‌عنوان یکی از نوآوری‌های فناورانه برجسته دوران ما، با سرعتی بی‌سابقه در حال نفوذ به تمامی جنبه‌های زندگی بشر، از جمله حوزه آموزش، است. این سرعت خیره‌کننده در پذیرش و استفاده از ابزارهای هوش مصنوعی، به‌ویژه در بخش آموزشی، پرسش‌ها و چالش‌های جدیدی را پیش روی ذینفعان این حوزه قرار داده است.

سرعت سرسام‌آور پذیرش هوش مصنوعی

ظهور ابزارهایی مانند ChatGPT در دو سال اخیر، توجه و تخیل عمومی را به شیوه‌ای بی‌سابقه به خود جلب کرده است. میزان پذیرش (adoption) این فناوری‌ها چیزی کمتر از “قابل توجه” نبوده است، و این روند سریع، حوزه آموزش را نیز در بر گرفته است. آمارهای ارائه شده توسط دین وست در “انجمن آموزش اسکویت” هاروارد، نشان‌دهنده ابعاد وسیع این پدیده است:

  • تنها باری که بازدید ماهانه از وب‌سایت ChatGPT کاهش یافت، در ژوئن 2023، در پایان سال تحصیلی 2022-23 بود.
  • تا ماه مه 2024، 82% از دانشجویان مقطع کارشناسی در ایالات متحده و 72% از دانش‌آموزان K-12 گزارش کرده‌اند که از هوش مصنوعی در کارهای مدرسه‌ای خود استفاده کرده‌اند.
  • نیمی از هر دو گروه نیز اظهار داشتند که چندین بار در هفته یا بیشتر از این ابزارها بهره گرفته‌اند.

این ارقام به تنهایی کافی است تا بزرگی این تغییر را نشان دهد. مارتا مک‌آلیستر، از گوگل، این سرعت را با پذیرش فناوری‌های دیگر در طول تاریخ مقایسه می‌کند تا سرعت بی‌سابقه هوش مصنوعی مولد را برجسته سازد:

  • برای رسیدن به 50 میلیون کاربر برای هواپیما، 68 سال طول کشید.
  • برای اینترنت، این رقم به 7 سال کاهش یافت.
  • فیس‌بوک در 3 سال به 50 میلیون کاربر رسید.
  • اما برای ابزارهای هوش مصنوعی مولد، تنها 5 هفته کافی بود تا به 50 میلیون کاربر دست یابند.

این منحنی پذیرش بسیار سریع (very fast adoption curve) یکی از دلایل اصلی نگرانی و اضطراب افراد است. چرا که سرعت پذیرش بسیار فراتر از توانایی ما برای درک آن است. با این حال، بسیاری از رهبران فناوری و همچنین رهبران آموزشی، هوش مصنوعی مولد را به عنوان یک توانمندساز قدرتمند فناوری می‌بینند. نظرسنجی‌ها نشان می‌دهد که 73 درصد از افراد مورد بررسی، هوش مصنوعی مولد را توانمندساز شماره یک فناوری برای سال جاری می‌دانند.

ضرورت درک و پاسخگویی انسان

این رشد شتابان در حالی رخ می‌دهد که بخش آموزش درگیر چالش‌های عمیقی مانند فرسودگی شغلی معلمان (teacher burnout) و کمبود مربی (educator shortages) پس از همه‌گیری کووید-19 است. معلمان به طور متوسط 53 ساعت در هفته کار می‌کنند و احساس فرسودگی شدید دارند. مدارس نیز در جذب و حفظ مربیان با مشکل مواجه‌اند. در همین حال، بسیاری گزارش می‌دهند که استفاده از هوش مصنوعی مولد برای کاهش بار اداری (administrative burden) شغلشان، 5 تا 10 ساعت در هفته زمان صرفه‌جویی می‌کند. برخی پروژه‌های آزمایشی حتی تا 13 ساعت صرفه‌جویی در هفته را نشان داده‌اند. این آمارها امیدواری زیادی ایجاد کرده‌اند که هوش مصنوعی بتواند به کاهش فرسودگی شغلی معلمان کمک کند، نه اینکه جایگزین آن‌ها شود.

آنچه برای همه روشن است، این است که هوش مصنوعی در حال حاضر آینده آموزش را به گونه‌ای شکل می‌دهد که همه دست‌اندرکاران این بخش – از سیاست‌گذاران و رهبران گرفته تا معلمان، دانش‌آموزان و والدین – باید آن را درک کنند. و مهم‌تر از آن، فناوری‌ها به تنهایی آینده آموزش را شکل نمی‌دهند. بلکه تأثیر آن‌ها توسط نحوه پاسخگویی انسان‌ها در نقش‌های مختلف (سیاست‌گذاران، توسعه‌دهندگان ابزار، پژوهشگران) تعدیل می‌شود. این بدان معناست که آینده آموزش با هوش مصنوعی، صرفاً یک مسیر جبری تکنولوژیکی نیست، بلکه نتیجه تصمیمات، تعاملات و تلاش‌های جمعی انسان‌هاست.

پتانسیل‌های تحول‌آفرین هوش مصنوعی

هوش مصنوعی، علیرغم چالش‌ها و نگرانی‌هایی که به همراه دارد، دارای پتانسیل‌های عظیمی برای تحول و بهبود بنیادین سیستم آموزشی است. این پتانسیل‌ها نه تنها در زمینه یادگیری دانش‌آموزان، بلکه در پشتیبانی از مربیان و رفع برخی از مشکلات ساختاری نیز قابل مشاهده است.

شخصی‌سازی آموزش و پشتیبانی هدفمند

یکی از بزرگترین فرصت‌های هوش مصنوعی، توانایی آن در شخصی‌سازی آموزش (personalize instruction) و پشتیبانی از دانش‌آموزان و مربیان به روش‌های جدید است. این شخصی‌سازی می‌تواند به طرق مختلفی صورت پذیرد:

  • ایجاد محیط‌های آموزشی نوین و پویا: هوش مصنوعی پتانسیل بسیار زیادی برای ایجاد “محیط‌های جدید، پویا و نوآورانه” برای تدریس و یادگیری دارد.
  • ابزاری در دستان مربیان: هوش مصنوعی می‌تواند “ابزاری برای و در دستان مربیان” باشد تا به حمایت از تعامل دانش‌آموزان و ایجاد یک حلقه بازخورد قوی‌تر (stronger feedback loop) کمک کند.
  • کاربردهای تطبیقی و تکوینی: این فناوری فرصت‌هایی برای استفاده‌های تکوینی و تطبیقی (formative and adaptive uses) برای آموزش و پیشرفت فراهم می‌آورد. این بدان معناست که هوش مصنوعی می‌تواند محتوا و مسیر یادگیری را بر اساس نیازها و پیشرفت لحظه‌ای هر دانش‌آموز تنظیم کند.
  • پشتیبانی از دانش‌آموزان با نیازهای ویژه: هوش مصنوعی پتانسیل واقعی برای کمک به فراگیران نورودایورس (neurodiverse learners) و فراگیران زبان انگلیسی (English learners) دارد، جمعیتی که معمولاً نیازمند حمایت‌های آموزشی اختصاصی هستند.
  • بهبود یادگیری آکادمیک و مشارکت دانش‌آموزان: در شرایطی که ما هنوز در تلاش برای بازیابی آکادمیک (academic recovery) از افت یادگیری پس از همه‌گیری هستیم و چالش تعامل دانش‌آموزان (student engagement) در مدارس همچنان پابرجاست، هوش مصنوعی می‌تواند راه‌حل‌های جذابی برای مقابله با این مسائل ارائه دهد.

کاهش بار کاری معلمان و مقابله با فرسودگی شغلی

بار سنگین کاری معلمان و فرسودگی شغلی (burnout) آن‌ها، یکی از بزرگترین چالش‌های فعلی سیستم آموزشی است. هوش مصنوعی در این زمینه نیز می‌تواند نقش تحول‌آفرینی ایفا کند:

  • صرفه‌جویی در زمان: بسیاری از افرادی که راه‌حل‌های هوش مصنوعی مولد را آزمایش کرده‌اند، گزارش داده‌اند که با استفاده از آن برای لایه بار اداری (administrative burden layer) شغلشان، 5 تا 10 ساعت در هفته صرفه‌جویی در زمان داشته‌اند. برخی حتی تا 13 ساعت در هفته نیز صرفه‌جویی زمان را گزارش کرده‌اند.
  • تمرکز بر آموزش: این صرفه‌جویی در زمان، امیدواری زیادی ایجاد می‌کند که هوش مصنوعی بتواند به کاهش فرسودگی شغلی معلمان و تمرکز بیشتر آن‌ها بر نقش اصلی خود در تدریس کمک کند، به جای جایگزینی آن‌ها. این امر می‌تواند کیفیت آموزش را به طور چشمگیری افزایش دهد.

توسعه سواد هوش مصنوعی برای نیروی کار آینده

در دنیایی که هوش مصنوعی به سرعت در حال تبدیل شدن به یک جزء جدایی‌ناپذیر از محیط کار است، سواد هوش مصنوعی (AI literacy) برای نسل بعدی دانش‌آموزان و دانشجویان به امری ضروری تبدیل شده است.

  • آمادگی برای نیروی کار آینده: 75% از اعضای هیئت علمی که از ابزارهای هوش مصنوعی مولد استفاده می‌کنند، معتقدند که فارغ‌التحصیلان برای موفقیت در محیط‌های حرفه‌ای آینده، باید نحوه استفاده مؤثر از این ابزارها را بدانند.
  • تقاضای دانشجویان: 65% از دانشجویان دانشگاهی خواهان آموزش در زمینه ابزارهای هوش مصنوعی هستند. آن‌ها احساس می‌کنند که مدارسشان باید این ابزارها را بیشتر ترویج کنند تا آن‌ها بتوانند نحوه استفاده مسئولانه و مولد از آن‌ها را بیاموزند. این امر نشان‌دهنده درک عمیق‌تر نسل جوان از اهمیت این مهارت‌ها برای آینده شغلی‌شان است.

تبدیل محتوای منفعل به تجربیات فعال یادگیری

تحقیقات یینگ خو، استادیار آموزش در HGSE، نمونه‌های درخشانی از چگونگی استفاده از هوش مصنوعی برای تعمیق یادگیری از طریق تعامل و گفتگو ارائه می‌دهد. او تاکید دارد که یادگیری عمیق از طریق مکالمه و گفتگو حاصل می‌شود.

  • برنامه‌های تلویزیونی تعاملی: پژوهش‌های او با همکاری PBS Kids، به توسعه برنامه‌های تلویزیونی تعاملی (interactive television shows) منجر شده است که به کودکان امکان می‌دهد هنگام تماشای برنامه‌های مرتبط با علوم، فناوری، مهندسی و ریاضیات (STEM) با شخصیت اصلی برنامه تلویزیونی ارتباط برقرار کنند.
  • تشویق به تفکر فعال: این گفتگوها برای ترغیب کودکان به “مشاهدات، پیش‌بینی‌ها و حل مسئله” طراحی شده‌اند. شخصیت‌ها به پاسخ‌های کودکان گوش می‌دهند و بازخورد مستقیم یا سؤالات تکمیلی بر اساس پاسخ‌های کودک ارائه می‌دهند.
  • تأثیر عظیم بر رشد و توسعه: با توجه به اینکه یک کودک به طور متوسط نزدیک به دو ساعت در روز تلویزیون تماشا می‌کند و رسانه‌های عمومی منابع یادگیری قابل دسترسی، به‌ویژه برای خانواده‌های کمتر برخوردار هستند، استفاده از هوش مصنوعی برای تبدیل بخشی از این زمان تماشا به تجربیات فعال یادگیری STEM می‌تواند “تأثیر عظیمی بر رشد و توسعه” آن‌ها داشته باشد.
  • یافته‌های پژوهشی: مطالعات مداوم نشان داده است که “درگیر شدن در گفتگو با شخصیت رسانه‌ای” منجر به درک بهتر مفاهیم علمی و انگیزه بیشتر برای تفکر درباره مسائل علمی در مقایسه با کودکانی می‌شود که نسخه معمولی برنامه تلویزیونی را بدون دیالوگ با کمک هوش مصنوعی تماشا می‌کنند. این مزایای اضافی، در مطالعات با دانش‌آموزان بزرگ‌تر (مانند دبیرستانی‌ها در همکاری با WGBH) نیز به طور مداوم مشاهده شده است. این امر “اهمیت گفتگو” و چگونگی “تقویت آموزش از طریق پشتیبانی از یادگیری فردی دانش‌آموزان” را تأیید می‌کند.

این پتانسیل‌ها تنها نوک کوه یخ هستند و با ادامه نوآوری در هوش مصنوعی، می‌توان انتظار داشت که فرصت‌های بیشتری برای تحول مثبت در آموزش پدیدار شوند.

چالش‌ها و نگرانی‌ها پیرامون هوش مصنوعی در آموزش

همانقدر که هوش مصنوعی پتانسیل‌های تحول‌آفرین دارد، به همان میزان نیز چالش‌ها و نگرانی‌های جدی را مطرح می‌کند که نیازمند توجه دقیق و راهکارهای جامع هستند. این مسائل از جنبه‌های اخلاقی و محتوایی گرفته تا پیامدهای اجتماعی و حقوقی را در بر می‌گیرند.

خطرات اخلاقی و محتوایی

برخی از این آمار و ارقام مربوط به استفاده گسترده از هوش مصنوعی در مدارس، با احساس نگرانی و هشدار مواجه می‌شود. این دغدغه‌ها شامل موارد زیر است:

  • تقلب و سرقت ادبی: نگرانی اصلی در مورد سوءاستفاده دانش‌آموزان از هوش مصنوعی برای تقلب در تکالیف است.
  • محتوای مغرضانه یا توهم‌زا: خطر قرار گرفتن دانش‌آموزان در معرض “محتوای مغرضانه (biased)” یا “توهم‌زا (hallucinated content)” وجود دارد. این مسئله به ماهیت مدل‌های هوش مصنوعی و داده‌های آموزشی آن‌ها بازمی‌گردد که می‌توانند حاوی سوگیری‌های موجود در جامعه باشند.
  • جایگزینی تفکر عمیق: نگرانی دیگر این است که دانش‌آموزان صرفاً از ابزارهای هوش مصنوعی به عنوان جایگزینی برای “تفکر عمیق” که برای یادگیری ضروری است، استفاده کنند. این موضوع به بحث “یادگیری ایهامی” (illusory learning) اشاره دارد که در آن دانش‌آموز ممکن است حس کند در حال یادگیری است، اما در واقعیت، توانایی تفکر نقادانه یا حل مسئله مستقل را از دست بدهد.
  • از دست دادن خلاقیت: علی‌رغم برخی روایت‌های مثبت، پارانویای زیادی در مورد “از دست دادن تفکر خلاق (creative thought)” به دلیل اتکا به هوش مصنوعی وجود دارد.
  • عدم دقت اطلاعات: هوش مصنوعی ممکن است اطلاعات نادرست یا گمراه‌کننده ارائه دهد.
  • حریم خصوصی: نگرانی‌های جدی در مورد حفظ حریم خصوصی (privacy) داده‌های دانش‌آموزان و استفاده از آن‌ها توسط ابزارهای هوش مصنوعی وجود دارد. مارتا مک‌آلیستر تأکید می‌کند که “با هر روی سکه، یک تنش مخالف وجود دارد”. در مقابل دموکراتیک‌سازی اطلاعات، نگرانی‌هایی در مورد حریم خصوصی مطرح می‌شود. در مقابل فرصت‌های خلاقانه، ترس از تبدیل شدن به “موجودات بی‌تحرک از وال-ای” (اشاره به فیلم Wall-E که در آن انسان‌ها به دلیل اتکا به فناوری بی‌تحرک می‌شوند) وجود دارد.

تعصب، تبعیض و حقوق مدنی

موضوع تعصب (bias) در هوش مصنوعی یکی از مهمترین چالش‌هاست که وزارت آموزش ایالات متحده نیز به آن پرداخته است.

  • تعهد اصلی در طراحی: روبرتو رودریگز، دستیار وزیر آموزش، تأکید می‌کند که “کاهش تعصب باید یک تعهد اصلی باشد که در واقع از سطح محصول آغاز می‌شود و در سطح توسعه نیز ادامه می‌یابد”. این امر شامل نحوه استفاده از فناوری‌ها در کلاس درس نیز می‌شود.
  • نقش وزارت آموزش و حقوق مدنی: وزارت آموزش ایالات متحده به همراه چندین آژانس فدرال دیگر، تعهد خود را به اجرای تمامی قوانین حقوق مدنی و تضمین “دسترسی برابر (equal access)” و “عدم تبعیض (non-discrimination)” در آموزش تأیید کرده‌اند. وزارتخانه نگرانی‌هایی از سوی جامعه در مورد “خطر و نگرانی از تعصب در هوش مصنوعی” شنیده است.
  • راهنمایی برای توسعه‌دهندگان: وزارت آموزش ایالات متحده در راهنمای توسعه‌دهندگان خود، این اصل را گنجانده است که محصول باید برای “پیشبرد برابری و حمایت از حقوق مدنی” طراحی شود. این بدان معناست که باید به چگونگی تأثیر سوگیری بر هوش مصنوعی و ابزارهای آن توجه شود.
  • مسئولیت مناطق آموزشی: وزارتخانه مستقیماً مدل‌ها را ارزیابی نمی‌کند یا رویکرد خاصی را تجویز نمی‌کند، اما می‌خواهد “اطمینان حاصل کند که مناطق و سیستم‌های آموزشی ما در مورد این موضوع فکر می‌کنند”. آن‌ها باید “سوالات درستی را در مورد استفاده از ابزارهای فناوری، از جمله هوش مصنوعی، بپرسند” و با رهبران و توسعه‌دهندگان خود صحبت کنند تا مطمئن شوند “محصولات، تعصب یا اقدامات تبعیض‌آمیز را ادامه نمی‌دهند”. رودریگز تاکید می‌کند که وزارتخانه با “ایجاد یک چارچوب و مجموعه از هنجارها و شیوه‌ها که پتانسیل قدرتمند هوش مصنوعی را برای ابزاری آموزشی به حداکثر می‌رساند و خطرات را به حداقل می‌رساند” عمل می‌کند.
  • چالش‌های خاص: یینگ خو به مشکلی اساسی اشاره می‌کند: در تحقیقات آن‌ها با کودکان خردسال، دقت تشخیص گفتار خودکار (automatic speech recognition accuracy) برای “دانش‌آموزان دوزبانه لاتین‌تبار” به طور قابل توجهی پایین‌تر از نتایج معمول برای دانش‌آموزان تک‌زبانه بود. این به این معناست که اگر هوش مصنوعی نتواند گفتار کودک را به درستی تفسیر کند، نمی‌تواند “حمایت هدفمند” مورد نیاز آن‌ها را فراهم کند و این “فرصت‌های از دست رفته” برای استفاده از هوش مصنوعی برای کمک به این دانش‌آموزان است.

حفظ حریم خصوصی دانش‌آموزان

حریم خصوصی دانش‌آموزان یک نگرانی اساسی در توسعه و استفاده از ابزارهای هوش مصنوعی است. وزارت آموزش ایالات متحده تاکید دارد که دستورالعمل‌ها و حفاظ‌های لازم باید توسعه یابند تا “اطمینان حاصل شود که هوش مصنوعی به روشی ایمن و مؤثر و به شیوه‌ای که حریم خصوصی دانش‌آموزان را به حداکثر می‌رساند، استفاده می‌شود”. چهارچوب راهنمای توسعه‌دهندگان شامل “تضمین ایمنی و امنیت” و “پیشبرد برابری و حفاظت از حقوق مدنی” است که هر دو برای “ایجاد اعتماد و ترویج شفافیت” حیاتی هستند. این امر شامل اطمینان از سوالات “حریم خصوصی دانش‌آموزان” است.

هوش مصنوعی به عنوان جایگزین یا ابزار کمکی؟

یکی از بزرگترین بحث‌ها، نقش هوش مصنوعی در رابطه با معلمان است.

  • عدم جایگزینی معلمان: روبرتو رودریگز قاطعانه “مفهوم هوش مصنوعی به عنوان جایگزینی برای معلمان و مربیان را رد می‌کند”. مفهوم “انسان در حلقه (humans in the loop)” برای اطمینان از این است که “ما مربیان خود را با ظرفیت لازم برای انجام قضاوت‌های مهم، رهبری پداگوژیک، و اطمینان از اینکه آن‌ها می‌توانند در مواقع استفاده از هوش مصنوعی تصمیمات را پشتیبانی کنند، تجهیز می‌کنیم”. آن‌ها باید بدانند که “هوش مصنوعی چه زمانی حضور دارد” و قادر به کمک به تصمیم‌گیری‌ها باشند.
  • اصل “معلمان در حلقه” در گوگل: مارتا مک‌آلیستر تأکید می‌کند که “معلمان در حلقه (Teachers in the loop)” یکی از اصول راهنمای گوگل است. او اظهار می‌دارد که “امید ما برای هوش مصنوعی این است که در واقع جایگاه مربی را ارتقا دهد و ظرفیت ما را گسترش دهد” و “معتقد نیست که هوش مصنوعی مولد می‌تواند ارزش و روح یک کلاس درس را جایگزین کند، که برای من، واقعاً مربی و همتایانی هستند که از یکدیگر یاد می‌گیرند”. گوگل محصولات خود را به گونه‌ای طراحی می‌کند که خروجی هوش مصنوعی مستقیماً به دانش‌آموزان ارائه نشود، بلکه “یک مانع سرعت (speed bump)” وجود دارد که “معلم می‌تواند ارزیابی کند که آیا این همان چیزی است که می‌خواهند به اشتراک گذاشته شود یا خیر”.
  • پژوهش‌های مقایسه‌ای: یینگ خو در مطالعات خود، “یادگیری دانش‌آموزان از یک معلم خصوصی هوش مصنوعی را در مقایسه با یک معلم خصوصی انسانی” مقایسه کرده است. اگرچه “مزایای یادگیری در برخی حوزه‌ها در هر دو شرایط کاملاً قابل مقایسه بودند”، اما “بسیاری از جنبه‌های دیگر یادگیری وجود دارد که هوش مصنوعی هنوز نمی‌تواند به طور کامل از آن‌ها پشتیبانی کند”. او دریافت که در تعامل با یک معلم خصوصی انسانی، “گفتگوهای دانش‌آموزمحور و پرسش‌محور بیشتری” وجود داشت. همچنین، “مربیان باتجربه در شناسایی سوءتفاهمات دانش‌آموزان و ارائه بازخورد مناسب‌تر از هوش مصنوعی بسیار بهتر عمل می‌کنند”. این توانمندی‌های انسانی “می‌توانند تأثیر قابل توجهی بر مسیر یادگیری بلندمدت دانش‌آموزان داشته باشند”.

این چالش‌ها به وضوح نشان می‌دهند که توسعه و پیاده‌سازی هوش مصنوعی در آموزش نیازمند رویکردی متفکرانه، اخلاقی و مسئولانه است که نقش مرکزی انسان را در فرآیند یادگیری نادیده نگیرد.

رویکردهای نهادی و توسعه‌ای در مواجهه با هوش مصنوعی

مواجهه با ظهور هوش مصنوعی در آموزش تنها به سطح فردی و کلاسی محدود نمی‌شود؛ بلکه نیازمند رویکردی جامع از سوی نهادهای دولتی، شرکت‌های توسعه‌دهنده و جامعه پژوهشی است. این بخش به بررسی چگونگی پاسخگویی این نهادها به پتانسیل‌ها و چالش‌های هوش مصنوعی می‌پردازد.

نقش وزارت آموزش ایالات متحده

“انجمن آموزش اسکویت” 2024-25 در HGSE به درستی ظهور هوش مصنوعی مولد را “موضوعی شایسته” برای اولین نشست خود تشخیص داد. روبرتو رودریگز، دستیار وزیر برای برنامه‌ریزی، ارزیابی و توسعه سیاست در وزارت آموزش ایالات متحده، مسئولیت مشاوره به وزیر آموزش در تمام مسائل مربوط به سیاست‌گذاری و پیاده‌سازی را بر عهده دارد. کارنامه او شامل دفتر فناوری آموزشی است که راهنمایی‌های جدیدی را برای توسعه‌دهندگان فناوری آموزشی در مورد طراحی برای آموزش با هوش مصنوعی منتشر کرده است.

  • آغاز کار وزارتخانه: وزارت آموزش ایالات متحده کار خود را در زمینه هوش مصنوعی از سال 2021 آغاز کرد، که “مدت‌ها قبل از دستور اجرایی کاخ سفید” بود. این کار با “تجزیه و تحلیل چشم‌انداز” و “گفتگو با بیش از 700 مربی و ذینفع در سراسر کشور” شکل گرفت تا “بهتر فکر کنند که چگونه هوش مصنوعی را در تدریس و یادگیری حمایت و تجربه کنیم”.
  • دیدگاه وزارتخانه: در وزارت آموزش، هدف این است که اطمینان حاصل شود که می‌توانند “راهنمایی، پشتیبانی و ترویج گفتگو” با جوامع آموزش ابتدایی و متوسطه، آموزش عالی و برنامه‌های دوران کودکی در مورد چگونگی تفکر در مورد هوش مصنوعی را فراهم کنند. رودریگز تاکید می‌کند که هوش مصنوعی “پتانسیل زیادی برای حل بسیاری از چالش‌های فرصت، بسیاری از شکاف‌های برابری در سیستم ما را دارد” و می‌تواند به کشور کمک کند “سریع‌تر و دورتر” در زمینه هوش مصنوعی حرکت کند.
  • چارچوب کلان دولتی: این کار وزارت آموزش در چارچوب گسترده‌تری از دستور اجرایی رئیس‌جمهور بایدن در پاییز گذشته در مورد “توسعه و استفاده ایمن، مطمئن و قابل اعتماد از هوش مصنوعی” قرار می‌گیرد. این دستور یک “رویکرد تمام دولتی” را معرفی کرد که در آن هر آژانس فدرال برای پرداختن به هوش مصنوعی و فکر کردن در مورد پتانسیل آن در داخل دولت و برنامه‌هایی که خدمات می‌دهند، کار می‌کند.
  • اصول راهنمای وزارتخانه: گزارش وزارت آموزش با عنوان “هوش مصنوعی در آینده تدریس و یادگیری” (منتشر شده در مه 2023) “پتانسیل فوق‌العاده هوش مصنوعی را برای پرورش محیط‌های جدید، پویا و نوآورانه برای تدریس و یادگیری” به رسمیت می‌شناسد. اما همچنین “خطرات قابل توجه” را نیز در نظر می‌گیرد. برخی از توصیه‌های کلیدی آن عبارتند از:
    • رد هوش مصنوعی به عنوان جایگزین: وزارتخانه قاطعانه “مفهوم هوش مصنوعی به عنوان جایگزینی برای معلمان و مربیان را رد می‌کند”. اصل “انسان در حلقه (humans in the loop)” به معنای تجهیز مربیان به ظرفیت لازم برای قضاوت‌های مهم و رهبری پداگوژیک است.
    • همسویی مدل‌های هوش مصنوعی با چشم‌انداز آموزش: نباید با این سوال آغاز کرد که “چه کاری می‌توانم انجام دهم”، بلکه باید از این سوال شروع کرد که “چشم‌انداز ما برای آموزش چیست، مشکلی که در کلاس درس یا مدرسه خود یا برای دانش‌آموزانمان می‌خواهیم حل کنیم چیست، و چگونه هوش مصنوعی می‌تواند به حل آن مشکل کمک کند؟”.
    • طراحی بر اساس اصول یادگیری مدرن: اطمینان از اینکه هوش مصنوعی با استفاده از “اصول یادگیری مدرن” طراحی شده است.
    • تقویت اعتماد: ایجاد و حمایت از اعتماد در میان مربیان و رهبران آموزشی نسبت به ابزارهایی که استفاده می‌کنند.
    • اطلاع‌رسانی و مشارکت مربیان: اطمینان از اینکه مربیان در هر مرحله اطلاع دارند و مشارکت می‌کنند، زیرا “اگر هوش مصنوعی قرار است به پتانسیل خود در سیستم آموزشی ما برسد، مربیان ما باید در صندلی راننده باشند”.
    • تمرکز تحقیق و توسعه (R&D) بر بهبود هوش مصنوعی در متن: پرسیدن سوالاتی مانند “چه چیزی برای چه کسی و چه زمانی کار می‌کند” و تمرکز این سوالات R&D در توسعه ابزارهای جدید.
    • توسعه دستورالعمل‌ها و حفاظ‌ها: ایجاد دستورالعمل‌ها و حفاظ‌های لازم برای اطمینان از استفاده ایمن، مؤثر و حداکثر کننده حریم خصوصی دانش‌آموزان از هوش مصنوعی.
  • چارچوب راهنمای توسعه‌دهندگان: این چارچوب دارای سه جزء اصلی است:
    1. ارائه شواهد برای منطق و تأثیر: اطمینان از اینکه ابزارها دارای شواهد کافی برای تأثیر و کارایی خود هستند.
    2. تضمین ایمنی و امنیت: شامل مسائل مربوط به حریم خصوصی دانش‌آموز.
    3. پیشبرد برابری و حفاظت از حقوق مدنی: که به چگونگی تأثیر سوگیری بر هوش مصنوعی و ابزارهای آن می‌پردازد. همه این اجزا برای “ایجاد اعتماد و ترویج شفافیت” حیاتی هستند.
  • مدل دو پشته‌ای: وزارتخانه یک “پشته دوگانه” (dual stack) را ترویج می‌کند که یک چارچوب نوآورانه برای توسعه محصول و خدمات را در یک سو، و در سوی دیگر، مجموعه‌ای هماهنگ از مسئولیت‌ها (ایمنی، امنیت، شفافیت، کاهش سوگیری و نمایندگی همه ذینفعان) را تعریف می‌کند.
  • ابزار کار برای رهبران مدارس: وزارتخانه قصد دارد یک “ابزار کار جدید برای رهبران مدارس” (School Leaders Toolkit) منتشر کند که تکرار دیگری از این راهنما به طور خاص برای مدیران و سرپرستان مدارس خواهد بود تا چگونگی اعمال توصیه‌ها را در نظر بگیرند.
  • تشویق به سیاست‌گذاری‌های منطقه‌ای: وزارتخانه به دنبال “سیاست یک اندازه برای همه” نیست، بلکه “هر منطقه را تشویق می‌کند تا سیاستی در مورد هوش مصنوعی اتخاذ کند” و “با برخی از سوالاتی که قبلاً مطرح کردیم، یعنی قول و پتانسیل هوش مصنوعی، دست و پنجه نرم کند”.

رویکرد گوگل در توسعه ابزارها

مارتا مک‌آلیستر، که خود را یک “معلم سابق تبدیل شده به گوگلر” توصیف می‌کند، مسئولیت هدایت صدای مربیان در توسعه محصول و برنامه در گوگل را بر عهده دارد.

  • مثال بصری‌سازی رویاها: او با مثالی از فرزند همکارش که عاشق خودروهاست، نشان می‌دهد که چگونه ابزارهای هوش مصنوعی مولد گوگل (مانند Gemini) می‌توانند به “بصری‌سازی رویاها” کمک کنند. این ابزار توانست توصیفات پیچیده یک کودک را به تصویر یک “ابرخودرو” با جزئیات فنی تبدیل کرده و حتی یک “ارائه کامل” درباره آن ایجاد کند. او تاکید می‌کند که “بصری‌سازی رویاهای شما، اولین گام برای تبدیل آن‌ها به واقعیت است”.
  • اصول هوش مصنوعی گوگل: گوگل از سال‌های 2017 و 2018 “اصول هوش مصنوعی” را برای هدایت فعالیت‌های شرکت خود ایجاد کرده است. برای تیم آموزش، یک “لایه یادگیری” بر روی این اصول اعمال شده است که کار آن‌ها را هدایت می‌کند.
  • LearnLM: گوگل “LearnLM” را توسعه داده است، “خانواده‌ای از مدل‌ها که در واقع برای اصول علم یادگیری تنظیم شده‌اند”. این مدل‌ها برخلاف مدل‌های عمومی که هدف اصلی آن‌ها “رساندن پاسخ” است، به طور خاص برای اهداف آموزشی و با در نظر گرفتن “علم یادگیری” و جنبه‌های “اجتماعی و عاطفی” طراحی شده‌اند. این اصول هم در توسعه محصول و هم در رویکرد آن‌ها به تصمیم‌گیری‌های محصولی کاربرد دارند. به عنوان مثال، در طراحی ویژگی “قابلیت مشاهده دانش‌آموز” در Google Classroom، این انتخاب آگاهانه برای “پشتیبانی از فراشناخت (metacognition)” صورت می‌گیرد که علم یادگیری نشان می‌دهد توانایی دانش‌آموزان برای حفظ و یادگیری را افزایش می‌دهد.
  • نقش هوش مصنوعی در ارتقاء مربی: مک‌آلیستر تأکید می‌کند: “ما در کسب و کار جایگزینی افراد نیستیم. امید ما برای هوش مصنوعی این است که در واقع مربی را ارتقاء دهد و ظرفیت ما را گسترش دهد“.
  • دموکراتیک‌سازی دسترسی: گوگل برای مدت طولانی (10 سال) Google for Education را به صورت رایگان ارائه می‌کرد که هدف آن “دموکراتیک‌سازی دسترسی به محصولاتمان” بود. اخیراً برای پایداری خدمات رایگان، شروع به دریافت هزینه کرده‌اند. این شرکت در طول کووید-19، از 23 کشور جدید که قبلاً دسترسی به فناوری آموزشی نداشتند، پشتیبانی کرده است.
  • تمرکز بر پیامدهای یادگیری: پس از کووید-19، گوگل “مسئولیت بیشتری برای ورود به فضای یادگیری متفکرانه (learning opinionated space)” احساس کرد و در طراحی محصولات خود، به سمت سرمایه‌گذاری بیشتر در یک “لایه پداگوژیک” حرکت کرد. آن‌ها با کارشناسان علوم یادگیری و پداگوژیک همکاری می‌کنند.
  • سنجش اثربخشی (Efficacy): در گذشته، گوگل بیشتر بر معیارهای “بهره‌وری (productivity)”، “پذیرش (adoption)” و “رضایت کاربر (user satisfaction)” تمرکز داشت. اما اکنون، رویکردهای جدیدی را برای سنجش اثربخشی اتخاذ کرده‌اند:
    • مدل‌های منطقی (Logic models): ویژگی X برای دستیابی به پیامد Y (رفتاری، نگرشی یا یادگیری) طراحی شده است که توسط فرضیه Z (علم یادگیری) پشتیبانی می‌شود.
    • آزمایش‌های تصادفی کنترل‌شده (RCTs): برای محصولات مستقیم به دانش‌آموز مانند Readalong (که با سواد خواندن کار می‌کند) که امکان جمع‌آوری داده‌های دقیق وجود دارد، RCTs انجام داده‌اند.
    • چارچوب VATT: برای محصولاتی مانند Google Classroom که متغیرهای زیادی دارند و ادعای تأثیر مستقیم بر یادگیری دشوار است، با سازمان‌های خارجی مانند Leading Educators و WestEd همکاری کرده‌اند تا چارچوبی به نام VATT (Value Added Technology and Teaching) را توسعه دهند که اثربخشی را بر اساس “بهترین شیوه‌های آموزشی (instructional best practices)” می‌سنجد. این به جای اندازه‌گیری مستقیم تأثیر بر یادگیری، بر “رفتارها و شیوه‌های آموزشی که ما می‌دانیم با نتایج یادگیری بهتر مرتبط هستند” تمرکز می‌کند.
  • برنامه‌های آموزشی: علاوه بر محصولات، گوگل سرمایه‌گذاری زیادی در برنامه‌های آموزشی مانند دوره‌های توسعه حرفه‌ای (professional development) در زمینه هوش مصنوعی مولد و سواد هوش مصنوعی دیجیتال انجام داده است.

این همکاری‌ها و رویکردهای ساختاریافته بین نهادهای دولتی و شرکت‌های فناوری نشان‌دهنده تلاش برای هدایت مسئولانه هوش مصنوعی در جهت بهبود آموزش و نه صرفاً بهره‌برداری تجاری است.

تحقیق و پویایی هوش مصنوعی در آموزش

حوزه هوش مصنوعی در آموزش (AI in education) به طور مداوم در حال تحول است و پژوهش نقش حیاتی در درک تأثیرات آن و شکل‌دهی به آینده‌ای مسئولانه ایفا می‌کند. با این حال، سرعت شتابان پیشرفت فناوری، چالش‌هایی را برای پژوهش‌های سنتی ایجاد می‌کند.

هوش مصنوعی فراتر از مدل‌های زبانی بزرگ

یینگ خو، پژوهشگر HGSE، توضیح می‌دهد که تحقیقات او در مورد پیامدهای هوش مصنوعی در آموزش، در واقع پیش از راه‌اندازی ChatGPT و درک عمومی از مدل‌های زبانی بزرگ (LLMs) آغاز شده بود. این نشان می‌دهد که هوش مصنوعی و مدل‌های زبانی بزرگ مترادف نیستند.

  • تاریخچه هوش مصنوعی: او تأکید می‌کند که “هوش مصنوعی در واقع مدت‌ها قبل از مدل‌های زبانی بزرگ وجود داشته است” و “حتی در حال حاضر، هوش مصنوعی در واقع بسیار فراتر از مدل‌های زبانی بزرگ است”. پیشرفت‌های قابل توجهی در هوش مصنوعی قبل از LLMs نیز وجود داشته است، مانند “آلفاگو” (AlphaGo) که در یک بازی تخته‌ای، یک بازیکن انسانی را شکست داد و “اخبار بزرگی را در آن زمان ایجاد کرد”.
  • تفاوت LLMs: اما تفاوت LLMs در این است که “توجه و علاقه عمومی پایداری را به خود جلب کرده است” و “دو سال است که ما هنوز در مورد آن صحبت می‌کنیم”. دو دلیل اصلی برای این تفاوت وجود دارد:
    1. کاربردهای گسترده: LLMs می‌توانند در انجام بسیاری از وظایف “بسیار مرتبط با زندگی روزمره ما” کمک کنند.
    2. دسترسی‌پذیری (Accessibility): بسیاری از مدل‌ها “رابط کاربری چت” (chat interface) دارند که “کاربران نهایی می‌توانند مستقیماً با هوش مصنوعی تعامل داشته باشند بدون هیچ تخصص فنی”.

این دسترسی گسترده به ابزارهای هوش مصنوعی یک “سوال تحقیقاتی بسیار جالب” را مطرح می‌کند: “چگونه این دسترسی گسترده به ابزارهای هوش مصنوعی، چشم‌انداز آموزش را تغییر خواهد داد؟”. همانطور که در مورد تأثیر دسترسی دانش‌آموزان به تلفن همراه و اینترنت سؤال می‌شود.

هوش مصنوعی هدفمند برای آموزش

نکته مهم این است که LLMs “فناوری‌های عمومی” (general technologies) هستند و “حداقل از همان ابتدا برای آموزش طراحی نشده‌اند”. این منجر به یک “مسیر تحقیقاتی بسیار جالب و مهم” می‌شود: “چگونه می‌توانیم این فناوری عمومی را برای استفاده آموزشی تطبیق دهیم، و آن را تخصصی‌تر و از نظر پداگوژیکی آگاهانه‌تر کنیم؟”. تلاش‌های زیادی در این راستا در حال انجام است:

  • آموزش LLMs بر اساس شیوه‌های آموزشی مبتنی بر شواهد: می‌توان “مدل‌های زبانی بزرگ را به شیوه‌های آموزشی مبتنی بر شواهد آموزش داد”. به عنوان مثال، پروژه‌های تحقیقاتی وجود دارد که LLMs را “استانداردهای علمی نسل بعدی” (Next Generation Science Standards) را آموزش می‌دهند تا بتوانند “گفتگوهای علمی‌محور” را بر اساس این معیارها با دانش‌آموزان انجام دهند.
  • چالش کنترل کامل: با این حال، “هر چقدر هم که حفاظ بر روی هوش مصنوعی قرار دهیم، نمی‌توانیم به طور کامل رفتار هوش مصنوعی را کنترل کنیم”. “گاهی اوقات هوش مصنوعی همچنان می‌تواند اطلاعات نادرست یا مغرضانه ارائه دهد”. اینجاست که “سواد هوش مصنوعی” (AI literacy) به عنوان یک “حوزه تحقیقاتی بسیار مهم دیگر” مطرح می‌شود.

چالش عقب‌ماندگی پژوهش از فناوری و سواد هوش مصنوعی

با توجه به سرعت بالای پذیرش هوش مصنوعی و تکامل مداوم آن، این سوال مطرح می‌شود که چگونه می‌توان تصمیمات مربوط به تخصیص منابع آموزشی را بر اساس “شواهد دقیق” گرفت، در حالی که “پژوهش همیشه از مرزهای تکنولوژیکی عقب خواهد ماند”.

  • عدم وجود راه حل کامل: یینگ خو تأکید می‌کند که “راه حل کاملی برای این موضوع وجود ندارد”. حتی برای فناوری‌هایی که مدت‌هاست وجود دارند (مانند تلفن همراه در مدارس)، هنوز پاسخ‌های قطعی وجود ندارد.
  • استفاده از تجربیات گذشته و اصول یادگیری: او دو راهکار پیشنهاد می‌کند:
    1. بازگشت به فناوری‌های مشابه گذشته: هوش مصنوعی “یکباره و از ناکجاآباد ظاهر نشده است”. فناوری‌هایی پیش از هوش مصنوعی وجود داشته‌اند که “شباهت‌های زیادی” با آن دارند، مانند “سیستم‌های تدریس خصوصی هوشمند (intelligent tutoring systems)” که اثربخشی آن‌ها برای دهه‌ها مورد مطالعه قرار گرفته است. این سیستم‌ها اگرچه به اندازه هوش مصنوعی سفارشی‌پذیر نبودند، اما درگیر کردن دانش‌آموزان در گفتگو، پرسیدن سوال و ارائه بازخورد را شامل می‌شدند. “بررسی برخی از مزایا و معایب آن سیستم‌ها، ممکن است بینش‌هایی را در مورد چگونگی پیش‌بینی آینده هوش مصنوعی در آموزش ارائه دهد”.
    2. تمرکز بر نظریه‌های یادگیری و علوم یادگیری: “برخی اصول اساسی باید صادق باشند”. به عنوان مثال، “دانش‌آموزان از بازخورد فوری و بازخورد تکوینی در فرآیند آموزشی و یادگیری خود بهره‌مند می‌شوند”. بر این اساس، می‌توان به مناطق آموزشی و مربیان توصیه کرد که “به دنبال محصولات هوش مصنوعی باشند که می‌توانند این نوع بازخورد تکوینی را ارائه دهند” و “بر روی آن ویژگی‌ها تمرکز کنند نه بر روی محصولات خاص”. این رویکرد “توصیه و شواهد سطح بالا” انعطاف‌پذیری بیشتری را برای انتخاب محصولات مناسب فراهم می‌کند.
  • نیاز به مطالعات اثربخشی: روبرتو رودریگز نیز تأکید می‌کند که “ما به این مطالعات اثربخشی نیاز داریم” و وزارتخانه “مجموعه‌ای از استانداردهای شواهد را برای جامعه فناوری آموزشی” تدوین کرده است. هم مطالعات “جمع‌بندی (summative)” و “استاندارد طلایی” (gold standard) و هم مطالعات “تکوینی (formative)” برای درک “شرایطی که در آن این فناوری آموزشی استفاده می‌شود” و “چگونگی اطلاع‌رسانی آن توسط پداگوژی صحیح” مورد نیاز است.
  • تقویت سواد هوش مصنوعی: رودریگز تأکید می‌کند که “کار زیادی برای افزایش سواد هوش مصنوعی معلمان، سیستم آموزشی ما و دانش‌آموزان ما وجود دارد”. مربیان باید “بدانند که هوش مصنوعی در یک ابزار وجود دارد یا خیر”، “چگونه آن ابزار را بررسی کنند”، و “چگونه سوالات درستی از توسعه‌دهندگان، از ارائه‌دهندگان برنامه درسی بپرسند”. از آنجایی که ابزارهای هوش مصنوعی به سرعت در بازار و اکوسیستم تعبیه می‌شوند، این نگرانی وجود دارد که “مربیان و رهبران سیستم ما ظرفیت لازم برای پرسیدن سوالات لازم را ندارند”. دانش‌آموزان نیز به سواد هوش مصنوعی بیشتری نیاز دارند تا بتوانند هوش مصنوعی را در یادگیری و زندگی خود “بررسی و مورد سوال قرار دهند”.

این نشان‌دهنده یک چشم‌انداز پیچیده است که در آن پیشرفت فناوری، نیاز به پژوهش‌های سازگار، و توسعه مهارت‌های جدید در همه ذینفعان برای هدایت هوش مصنوعی به سمت بهبود آموزش و نه صرفاً تشدید مشکلات موجود، ضروری است.

چشم‌انداز آینده و توصیه برای نهادهای آموزشی

آینده آموزش در مواجهه با هوش مصنوعی، موضوعی است که نیازمند تفکر عمیق و بحث‌های سازنده است. در این بخش، به چشم‌اندازهای مطرح شده و توصیه‌های ارائه شده برای نهادهای آموزشی و جامعه می‌پردازیم.

هوش مصنوعی و تغییرات ساختاری در نیروی کار آموزشی

سوال این است که آیا محدود کردن پتانسیل هوش مصنوعی صرفاً به پشتیبانی از معلمان فعلی در نقش‌های فعلی‌شان، بیش از حد محدودکننده نیست؟ آیا نباید در مورد “جایگزینی برخی از روش‌های سنتی استفاده از نیروی کار در آموزش” فکر کرد؟

  • رویکرد تدریجی: روبرتو رودریگز معتقد است که “ما تازه در آغاز درک چگونگی تفکر در مورد هوش مصنوعی و پتانسیل آن برای تقویت و تعمیق نتایج تدریس، یادگیری و تعامل هستیم”. او می‌گوید “باید بهتر بفهمیم که این چگونه به نظر می‌رسد قبل از اینکه فراتر برویم”.
  • تقویت آموزش: رودریگز به امکان استفاده از “معلمان خصوصی تقویت‌شده با هوش مصنوعی” (AI-enhanced tutors) اشاره می‌کند که “در کنار مربیان کار می‌کنند تا اطلاعات را جمع‌آوری کنند، داده‌های تکوینی را به صورت انبوه از یک کلاس درس فراهم کنند، و سپس با مداخلات هدفمند سطح 1 و سطح 2 پاسخ دهند”. او این را یک “روش واقعاً هیجان‌انگیز” می‌داند که “هوش مصنوعی آموزش خوب را به شیوه‌ای مثبت تقویت می‌کند”. اما هنوز “به نقطه‌ای نرسیده‌ایم که آماده باشیم کاملاً ماشینی شویم”.
  • یافتن نقطه تعادل: یینگ خو در تحقیقات خود در زمینه “همکاری معلم و هوش مصنوعی” (teacher AI collaboration) بسیار آگاه است که “ما می‌خواهیم معلمان را درگیر کنیم، اما نمی‌خواهیم بار کاری اضافی را برای آن‌ها افزایش دهیم”. او اشاره می‌کند که در یک طیف، یک طرف “معلمان به صورت دستی تمام مواد آموزشی را جمع‌آوری می‌کنند” و در طرف دیگر “هوش مصنوعی کنترل را به دست می‌گیرد و همه کارها را به صورت خودکار انجام می‌دهد”. بسیاری از پروژه‌های تحقیقاتی به دنبال “نقطه شیرین (sweet spot)” در این طیف هستند تا “تعادل خوبی بین درگیر کردن معلمان و عدم اضافه کردن انبوهی از کار به آن‌ها” پیدا کنند.

تاثیر هوش مصنوعی بر برنامه‌درسی

با توجه به آینده‌ای که ماشین‌ها و هوش مصنوعی در آن نقش فزاینده‌ای دارند، آیا دانش‌آموزان K-12 باید بیشتر بر STEM تمرکز کنند یا بر هنر و علوم انسانی؟

  • مهارت‌های مرتبط: مارتا مک‌آلیستر پاسخ می‌دهد که “همانطور که رشته‌ها تغییر می‌کنند، یا موضوعات مختلف تغییر می‌کنند و ابزارها در آن رشته‌ها تکامل می‌یابند، مهم است که در مورد مهارت‌هایی که در آن رشته مرتبط خواهند بود، فکر و تأمل کنیم”. او معتقد است که “تمام مهارت‌هایی که ذکر شد – STEM، هنر و علوم انسانی – همچنان مرتبط هستند”.
  • تمرکز بر نقاط ضعف هوش مصنوعی: او پیشنهاد می‌کند که به “آنچه هوش مصنوعی در آن بد است” فکر کنیم. “بسیاری از بخش‌های انسانی و شخصی” هستند که هوش مصنوعی در آن‌ها ضعیف است. بنابراین، می‌توان بحث کرد که “بهتر است بر آن چیزها تمرکز کرد”.
  • دانش پایه: او تأکید می‌کند که “داشتن دانش پایه مهم است تا افراد بتوانند با این ابزارها به شیوه‌ای متفکرانه تعامل داشته باشند”. او با مثال ماشین حساب توضیح می‌دهد که “هنوز لحظات زیادی در کلاس وجود دارد که معلم می‌گوید: لطفاً برای این آزمون یا ارزیابی از ماشین حساب استفاده نکنید، زیرا آن‌ها به شما نیاز داشتند که آن دانش بنیادی را داشته باشید تا بتوانید مشکلاتی را که بعداً با استفاده از ماشین حساب حل می‌کردید، درک کنید”.
  • اهمیت یادگیری انسان‌محور: مک‌آلیستر معتقد است که “همیشه نقطه‌ای وجود خواهد داشت که انسان‌ها هنوز مهم خواهند بود”. او تاکید می‌کند که “نحوه یادگیری ما مهم‌تر از لزوماً موضوعاتی است که یاد می‌گیریم”.

هوش مصنوعی و سلامت روان دانش‌آموزان

یکی از چالش‌های بزرگ ملی، بحران سلامت روان در میان جوانان است. داده‌ها نشان می‌دهد که “نرخ سلامت روان، افسردگی و حتی خودکشی در میان دانش‌آموزان ایالات متحده از اواسط دهه 2000، زمانی که رسانه‌های اجتماعی فراگیر شدند، افزایش یافته است”. برخی نگرانی‌ها را در مورد اعتیاد به رسانه‌های اجتماعی ابراز می‌کنند.

  • کاربرد هوش مصنوعی: روبرتو رودریگز این سوال را “یک سؤال عالی” می‌داند و اظهار می‌دارد که “سلامت روان و رفاه دانش‌آموزان ما چیزی است که ما همه باید به آن توجه و نگران باشیم”. او معتقد است که “هوش مصنوعی یک کاربرد جالب” در این زمینه دارد. ابزارهای فناوری آموزشی می‌توانند پلتفرم‌هایی را ارائه دهند که “لازماً جایگزین ارائه‌دهندگان سلامت روان نمی‌شوند”، اما “به اتصال و تقویت خدمات” در این زمینه کمک می‌کنند. او “نمونه‌های امیدوارکننده‌ای” از این قبیل را شخصاً دیده است.
  • مزایا و معایب احتمالی: یینگ خو اظهار می‌دارد که “هنوز شواهد زیادی برای مثبت یا منفی بودن [تأثیر هوش مصنوعی بر سلامت روان] نداریم”. او می‌بیند که “هوش مصنوعی می‌تواند در واقع فضایی امن برای دانش‌آموزان برای بیان خود فراهم کند زیرا آن‌ها از قضاوت یک فرد احساس ترس نمی‌کنند”. با این حال، “ما همچنین می‌توانیم ببینیم که دانش‌آموزان ممکن است با هوش مصنوعی دلبستگی پیدا کنند. و اگر این دلبستگی تعامل آن‌ها با افراد دیگر را از بین ببرد، چه می‌شود؟”. این می‌تواند “پیامدهای بسیار منفی” داشته باشد.

مقابله با اثر متیو (Matthew Effect)

اثر متیو در آموزش به پدیده‌ای اشاره دارد که در آن افراد از قبل برخوردار، تمایل دارند مزایای بیشتری را از پیشرفت‌ها (مانند استفاده از هوش مصنوعی مولد) کسب کنند. سوال این است که چگونه می‌توان این پدیده را کاهش داد؟

  • تاریخچه آسیب‌پذیری فناوری آموزشی: مارتا مک‌آلیستر اذعان می‌کند که “بسیاری از فناوری‌های آموزشی، شکاف را تشدید کرده‌اند” و این یک “پیامد ناخواسته” است.
  • رویکرد گوگل: او به تلاش‌های گوگل برای مقابله با این اثر اشاره می‌کند:
    • دسترسی رایگان: سال‌ها Google for Education رایگان بود تا “دسترسی به محصولاتمان را دموکراتیک سازد”.
    • انتخاب‌های عمدی محصول: گوگل “انتخاب‌های محصولی بسیار عمدی” انجام می‌دهد تا “چیزهایی را که می‌ترسیم از دست بدهیم، تقویت کند”. به عنوان مثال، برای مقابله با ترس از انزوای دانش‌آموزان، استارتاپ‌های جالبی وجود دارند که “انتخاب‌های محصولی بسیار عمدی” انجام می‌دهند که “در واقع همکاری همتا به همتا را اجباری می‌کند” و “آن مانع سرعت را وارد می‌کند” تا این ترس کاهش یابد. همچنین، برای مقابله با “سرعت رسیدن به پاسخ”، در Google Search یک “توضیح‌دهنده” و یک “فرآیند گام به گام” قبل از ارائه پاسخ مستقیم درج می‌شود.
    • نقش محدود شرکت‌ها: مک‌آلیستر اذعان می‌کند که “این یک نقش کوچک است که ما می‌توانیم ایفا کنیم” و “دروغ می‌گفتم اگر می‌گفتم می‌توانیم بر این شکاف عظیم موجود غلبه کنیم”. او معتقد است که گوگل “نقش بسیار کوچک و فروتنانه‌ای” دارد و “تلاش می‌کنیم تا در آنچه ارائه می‌دهیم، مسئولانه عمل کنیم و آن را تا حد امکان در دسترس قرار دهیم”.
  • اهمیت همکاری: مارتین وست، دین HGSE، تأکید می‌کند که “اگر فقط ابزارها را در دسترس قرار دهیم و اجازه دهیم طبیعت مسیر خود را طی کند، نابرابری‌ها تشدید خواهند شد”. او به مثال Khan Academy اشاره می‌کند که “آموزش رایگان SAT” را ارائه داد، اما “بیشتر توسط خانواده‌های برخوردارتر استفاده شد تا خانواده‌های کمتر برخوردار”. اینجاست که “نیاز به همکاری با مربیان، نیاز به نقش دولت” مطرح می‌شود، زیرا “یک شرکت فناوری به تنهایی می‌تواند کارهای محدودی انجام دهد”.
  • مسئولیت تصمیم‌گیری: روبرتو رودریگز این نکته را “بسیار مهم” می‌داند و می‌گوید: “انتخاب‌هایی که اکنون در مورد هوش مصنوعی، نحوه استفاده از آن و برای چه کسی، و در چه متنی انجام می‌دهیم، مهم هستند”. او تأکید می‌کند که “ما اختیار داریم این تصمیمات را بگیریم، این انتخاب‌ها را انجام دهیم”.

توصیه‌ها برای موسسات آموزش عالی (مانند HGSE)

با توجه به تغییرات سریع در چشم‌انداز آموزشی، چه توصیه‌هایی برای موسساتی مانند HGSE که در حال آماده‌سازی متخصصان آینده آموزش هستند، وجود دارد؟

  • نقش محوری علوم اجتماعی و آموزش: یینگ خو تأکید می‌کند که “توسعه هوش مصنوعی در واقع توسط بخش‌های فناوری تسلط ندارد” و “مربیان و افراد از علوم اجتماعی در واقع نقش بسیار مهمی ایفا خواهند کرد”. به ویژه اکنون که “فناوری‌ها به سرعت در حال حرکت هستند”، باید “درباره ملاحظات اخلاقی و چگونگی تأثیر آن بر جامعه انسانی واقعاً فکر کنیم”. این “کاری است که ما باید انجام دهیم و باید مسئولیت پرسیدن آن سوالات را بر عهده بگیریم”. برای دانشجویان HGSE، این‌ها “سوالات بزرگی هستند که باید مورد بررسی و تفکر قرار گیرند” – “چگونه هوش مصنوعی را مسئولانه‌تر، اخلاقی‌تر و ایمن‌تر برای جامعه خود کنیم”.
  • ایجاد پل ارتباطی بین جوامع: روبرتو رودریگز “خوشبین و هیجان‌زده” است در مورد “توانایی HGSE برای پرداختن به برخی از این قطعات بزرگ و واقعاً جمع کردن رشته‌های مختلفی که بر تدریس و یادگیری تأثیر می‌گذارند”. او پیشنهاد می‌کند که “جامعه توسعه‌دهندگان ما و کسانی که ممکن است کمی زبان متفاوتی نسبت به روزمره مربیان، معلمان، مدیران مدارس و سرپرستان ما صحبت کنند، را فعال‌تر در کنار جامعه آموزشی ما بیاوریم”. HGSE فرصت دارد “این انطباق را به شیوه‌ای مؤثر و قدرتمند ایجاد کند”.
  • تمرکز بر مهارت‌های اساسی: مارتا مک‌آلیستر، از دیدگاه یک مدیر استخدام، می‌گوید که “قبل از ظهور هوش مصنوعی مولد و پس از آن، مهارت‌هایی که من به دنبال آن‌ها هستم، تقریباً همان‌ها هستند”. این مهارت‌ها عبارتند از: تفکر انتقادی (critical thinking)، حل مسئله خلاقانه (creative problem solving)، توانایی یادگیری و تطبیق (ability to learn and adapt)، و تفکر نقادانه (critical thought). او توصیه می‌کند: “تا زمانی که در حال ایجاد یک محیط یادگیری هستید که هنوز این نوع مهارت‌ها را تقویت می‌کند، محتوا و تخصص موضوع ممکن است تغییر کند، و ابزارها ممکن است تغییر کنند. اما اگر افرادی دارید که قادر به تطبیق و یادگیری هستند، توانایی ناوبری در این ابهام، یک مهارت حیاتی است که ما به دنبال آن هستیم”.

این مباحث نشان می‌دهد که آینده هوش مصنوعی در آموزش، بیش از آنکه یک چالش صرفاً فنی باشد، یک چالش انسانی و سازمانی است که نیازمند همکاری، تفکر انتقادی، و تعهد به اصول اخلاقی و پداگوژیکی است.

نتیجه‌گیری: هوش مصنوعی، ابزاری برای ارتقاء، نه جایگزینی

ورود شتابان هوش مصنوعی مولد (Generative AI) به حوزه آموزش، یک نقطه عطف تاریخی را رقم زده است. همانطور که در “انجمن آموزش اسکویت” هاروارد نیز مورد بحث قرار گرفت، هوش مصنوعی از هم‌اکنون در حال شکل‌دهی به آینده یادگیری است و درک و پاسخگویی مسئولانه به آن، برای تمامی ذینفعان ضروری است.

این مقاله به وضوح نشان داد که هوش مصنوعی پتانسیل عظیمی برای شخصی‌سازی آموزش، کاهش بار کاری معلمان و فعال‌سازی یادگیری از طریق تعاملات پویا دارد. این فناوری می‌تواند به عنوان یک ابزار قدرتمند در دست مربیان عمل کند و امکان می‌دهد تا به نیازهای خاص هر دانش‌آموز، از جمله فراگیران با نیازهای ویژه، پاسخ داده شود.

با این حال، چالش‌های جدی نیز وجود دارد که نمی‌توان آن‌ها را نادیده گرفت. نگرانی‌هایی در مورد تقلب، محتوای مغرضانه و توهم‌زا، از دست دادن تفکر عمیق و خلاق، و مسائل حریم خصوصی دانش‌آموزان کاملاً مشروع هستند. مهم‌تر از همه، خطر تعصب در الگوریتم‌ها و داده‌های آموزشی هوش مصنوعی است که می‌تواند نابرابری‌های موجود را تشدید کند.

نکته محوری در تمامی بحث‌های مطرح شده، اصل “انسان در حلقه (humans in the loop)” است. وزارت آموزش ایالات متحده، گوگل و پژوهشگران به طور قاطعانه مفهوم هوش مصنوعی به عنوان جایگزینی برای معلمان را رد می‌کنند. در عوض، هوش مصنوعی باید به عنوان یک ابزار قدرتمند برای ارتقاء نقش مربیان، گسترش ظرفیت آن‌ها و تقویت بهترین شیوه‌های آموزشی استفاده شود. این شامل یافتن “نقطه تعادل” مناسب در همکاری معلم-هوش مصنوعی است تا بار کاری اضافی بر معلمان تحمیل نشود.

برای هدایت هوش مصنوعی به سمتی که بیشترین فایده را برای آموزش داشته باشد، گام‌های متعددی باید برداشته شود:

  • سواد هوش مصنوعی: افزایش سواد هوش مصنوعی در میان معلمان، دانش‌آموزان و رهبران سیستم آموزشی ضروری است تا آن‌ها بتوانند ابزارهای هوش مصنوعی را ارزیابی کنند، سوالات درستی از توسعه‌دهندگان بپرسند و کاربردهای مناسب آن‌ها را تشخیص دهند.
  • طراحی اخلاقی و مسئولانه: توسعه‌دهندگان ابزارهای هوش مصنوعی باید از همان ابتدا، اصول اخلاقی، کاهش تعصب، امنیت و حریم خصوصی را در طراحی خود لحاظ کنند. رویکردهای شفاف، مانند LearnLM گوگل که بر اساس اصول علم یادگیری بنا شده، نمونه‌های خوبی در این زمینه هستند.
  • پژوهش مستمر و پویا: با توجه به سرعت پیشرفت فناوری، پژوهش‌ها باید از شواهد تاریخی و اصول ثابت علم یادگیری بهره ببرند تا همگام با فناوری حرکت کرده و راهنمایی‌های عملی ارائه دهند.
  • همکاری بین‌بخشی: موفقیت در استفاده از هوش مصنوعی در آموزش نیازمند همکاری بین سیاست‌گذاران، توسعه‌دهندگان، پژوهشگران، مربیان و والدین است. این همکاری برای اطمینان از اینکه فناوری‌ها به طور عادلانه و مؤثر در کلاس‌های درس به کار گرفته می‌شوند، حیاتی است.
  • تمرکز بر مهارت‌های انسانی: موسسات آموزشی باید بر تقویت مهارت‌های اساسی انسانی مانند تفکر انتقادی، حل مسئله خلاقانه، و توانایی یادگیری و تطبیق تمرکز کنند، زیرا این مهارت‌ها حتی با وجود هوش مصنوعی نیز حیاتی باقی خواهند ماند.

چشم‌انداز آینده در 10 سال آینده هیجان‌انگیز است: هوش مصنوعی می‌تواند به ما کمک کند تا “برخی از هنجارهایی که سیستم ما را از سازگاری باز داشته‌اند، مختل کنیم”. این شامل “شخصی‌سازی، فردی‌سازی و تمرکز بر پاسخگویی به هر فراگیر در جایی که هست” است. هوش مصنوعی می‌تواند “ابزاری واقعاً قدرتمند” در کنار پداگوژی عالی و مربیان عالی باشد. همچنین، می‌تواند “ارائه چیزی اضافی به هر آنچه که در حال حاضر استفاده می‌کنیم” را فراهم آورد. حتی ممکن است هوش مصنوعی به “اتخاذ شیوه‌های بهتر آموزشی” منجر شود، مثلاً با ترویج مدل کلاس درس معکوس به دلیل نگرانی از تقلب در تکالیف منزل. علاوه بر این، هوش مصنوعی می‌تواند “دسترسی به راه‌حل‌های سفارشی برای معلمان را دموکراتیزه کند”، به طوری که معلمان دیگر نیازی به تکیه صرف بر ارائه‌دهندگان فناوری آموزشی نداشته باشند. این عصر جدید می‌تواند “مشارکت بین معلمان و دانش‌آموزان در یادگیری با هم” را تکامل بخشد.

در نهایت، آینده هوش مصنوعی در آموزش، یک مسیر از پیش تعیین شده نیست، بلکه نتیجه انتخاب‌های ماست. با تعهد به توسعه مسئولانه، استفاده اخلاقی و تقویت ظرفیت‌های انسانی، می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی به ابزاری برای ارتقاء آموزش و ایجاد فرصت‌های یادگیری عادلانه‌تر و مؤثرتر برای همه تبدیل می‌شود.


متا دیتا (Meta Description): مقاله جامع درباره هوش مصنوعی و آینده آموزش. کاوش پتانسیل‌های بی‌نظیر AI برای شخصی‌سازی یادگیری، کاهش بار معلمان و افزایش سواد دیجیتال. بررسی چالش‌های اخلاقی، تعصب و حریم خصوصی. نقش وزارت آموزش ایالات متحده، گوگل و پژوهشگران در شکل‌دهی به آینده‌ای که انسان در مرکز آموزش باقی می‌ماند.

برچسب‌های کلیدی (Keywords/Tags): هوش مصنوعی, آموزش, آینده آموزش, یادگیری, معلم, دانش‌آموز, پتانسیل هوش مصنوعی, چالش‌های هوش مصنوعی, سواد هوش مصنوعی, شخصی‌سازی آموزش, وزارت آموزش ایالات متحده, گوگل, LearnLM, اخلاق هوش مصنوعی, تعصب در AI, حریم خصوصی دانش‌آموزان, فرسودگی شغلی معلمان, فناوری آموزشی, نوآوری در آموزش, سیستم آموزشی, انسان در حلقه, پژوهش AI, مدل‌های زبانی بزرگ, گفتگو در یادگیری, اثر متیو, سلامت روان دانش‌آموزان, HGSE, پداگوژی, تربیت معلم, آینده شغلی.

بدون نظر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *