Образование с ChatGPT: школы в Казахстане разделятся на "продвинутые" и "забытые"

Пока в учебники добавляют ChatGPT, эксперты предупреждают о рисках: утрате мышления, цифровом неравенстве и эффекте имитации вместо знаний.

Что произошло

С 1 сентября 2026 года казахстанские школы начнут поэтапное внедрение искусственного интеллекта (ИИ) в образовательный процесс. Это предусмотрено новым государственным общеобязательным стандартом образования (ГОСО), утверждённым министерством просвещения и Академией образования имени Алтынсарина.

ИИ не будет отдельным предметом – его элементы появятся внутри существующих дисциплин, от литературы до физкультуры. Формально цель – формирование цифровой грамотности, критического мышления и адаптивности к современной экономике.

Детали

В министерстве просвещения в ответ на запрос BES.media уточнили, что под ИИ понимаются как генеративные, так и негеративные технологии – от ChatGPT до навигаторов и алгоритмов в соцсетях. ИИ планируют внедрять в рамках уже существующих предметов.

Казахский язык и литература: ИИ помогает сокращать тексты, анализировать произведения, развивать речь.

Иностранные языки: на английском появятся темы вроде Artificial Intelligence in Art and Music.

Естествознание, биология, физика, география: виртуальные лаборатории, моделирование, анализ данных с ИИ.

История и основы права: задания с правовым анализом и цифровыми источниками.

Музеи, труд, музыка: проекты с 3D-визуализацией, аудио- и видеомонтаж с ИИ.

Физкультура: ИИ и ИКТ используются для отслеживания и корректировки физической активности.

Внедрение мягкое: школы сами решают, интегрировать ИИ или оставить предметы без изменений.

Главные цели: развивать критическое мышление, творчество, цифровую грамотность и адаптивность. Интеграция ИИ должна усилить межпредметные связи и помочь лучше понять учебный материал. Минобразования рассчитывает, что это повысит конкурентоспособность Казахстана на мировом образовательном и трудовом рынке.

исследования

Активное внедрение технологий искусственного интеллекта (ИИ) в сферу образования сопровождается обсуждением возможных когнитивных последствий. Профессор SBS Swiss Business School Михаэль Герлих в своём исследовании, проведённом на выборке из 666 человек в Великобритании, выявил связь между частым использованием ИИ и снижением показателей критического мышления, особенно среди молодых пользователей.

Согласно результатам исследования, респонденты, регулярно обращающиеся к языковым моделям, демонстрировали более низкие результаты при выполнении задач, требующих аналитических и рефлексивных способностей. Участники отмечали, что благодаря ИИ доступ к информации становится проще, однако при этом снижается уровень её осмысления и запоминания.

Схожие выводы представлены и в исследованиях специалистов Microsoft и Carnegie Mellon University. В них рассматривается влияние генеративных ИИ-инструментов на профессиональную деятельность. Хотя использование ИИ способствует ускорению выполнения задач, оно также может снижать мотивацию к самостоятельному мышлению и формировать поведенческие шаблоны, известные в когнитивной науке как "разгрузочное поведение" (cognitive offloading) – склонность полагаться на внешние источники при решении задач, требующих умственных усилий.

Наиболее ярко эти процессы проявляются в цифровой среде и социальных сетях, где информация подаётся в упрощённой форме, что способствует её потреблению без глубокой обработки. По оценке Герлиха, снижение потребности в размышлении может привести к снижению когнитивной активности.

В Казахстане исследования не проводились

В запросе министерству просвящения корреспондент BES.media попросил ведомство прокомментировать результаты исследований, но просьба была проигнорирована.

В минцифры подтверждают, что отдельные научные исследования действительно указывают на снижение когнитивной активности у школьников при чрезмерном использовании цифровых технологий и инструментов ИИ. Вместе с тем в ведомстве подчеркнули, что искусственный интеллект сам по себе не представляет угрозы. Потенциальные риски, по их мнению, связаны с отсутствием педагогического сопровождения, временных ограничений и подготовленной методической базы.

"Основной акцент должен быть сделан на развитии цифровой грамотности, обучении педагогов и сопровождении учеников с точки зрения психологии и безопасности", – говорится в ответе ведомства.

При этом в ведомстве признали, что систематическая оценка рисков, связанных с ранним вовлечением школьников в работу с ИИ, в настоящее время не проводилась. Это означает, что, несмотря на активное продвижение цифровых решений в образовательной среде, объективной базы для анализа долгосрочных последствий – включая снижение уровня критического мышления, возможное развитие зависимости от технологий и когнитивную усталость – пока не сформировано.

Вызов мышлению

"Сегодня LLM (большие языковые модели) стали настоящим вызовом для образовательных практик. Проверка эссе, рефератов, докладов существенно усложнилась. Классические задания в духе "проанализируйте цитату" или "рассмотрите аргументы за и против" могут быть выполнены за считанные секунды с помощью простой формулировки запроса. Это меняет саму природу проверки знаний: знание становится менее проверяемым, если не изменяется способ оценивания. Система образования стоит перед необходимостью пересмотра методов – как преподавания, так и контроля", – рассказал корреспонденту BES.media профессор социологии, преподаватель Евразийского национального университета Николай Тернов. 

Преподаватели легко распознают ИИ

По его словам, в нынешней среде внедрение больших языковых моделей (LLM) становится не стимулом к развитию, а соблазном к имитации. Тернов подчеркнул, что уже сейчас студенты и школьники массово используют ИИ для написания текстов, создания презентаций и даже для сдачи заданий, не понимая, о чём идёт речь. 

"Разрыв между формой и содержанием становится всё более заметным. Особенно для преподавателей, которые сами активно публикуются и ориентируются в предметной области. Они легко распознают, где текст продукт размышлений обучающегося, а где результат генерации языковой модели", – отмечает он.

Тернов подчёркнул, что опасность не столько в самих технологиях, сколько в эффекте автоматизации усилий. То, что раньше требовало рефлексии и труда, – анализ, синтез, аргументация – теперь подменяется быстрым запросом. Это не просто снижает уровень подготовки, но и отучает думать. Особенно это касается студентов и школьников, которые ещё не сформировали собственные когнитивные рамки и ориентиры. Они начинают воспринимать знание не как продукт размышления, а как результат удачного промта (запроса для ИИ).

опыт других стран

В то время как Казахстан внедряет искусственный интеллект в школы через обновление учебных программ и стандартов, другие страны идут разными путями – от осторожного подхода и строгого контроля до смелых экспериментов и инноваций в образовании.

В Великобритании подход к ИИ умеренно поощрительный. Министерство образования запускает проекты по автоматизации оценивания и планирования уроков при строгом контроле. Министерство также публикует руководства и курсы, объясняющие учителям принципы ответственного применения ИИ и способы использования его для повышения креативности и эффективности обучения, без подмены человеческого фактора. Ученики же получают доступ к ИИ-инструментам лишь в исключительных случаях и только при наличии строгой школьной политики. Таким образом, система работает в режиме контроля: ИИ используется, но за учителем – ответственность.

В Швеции действуют прямо противоположные практики. Генеративный ИИ для выполнения домашних заданий фактически запрещён. Такая жёсткая позиция объясняется опасениями за академическую честность и когнитивное развитие вплоть до того, что используются технологии обнаружения текста, сгенерированного ИИ. Страна предпочитает держаться подальше от рисков раннего внедрения, фокусируясь на развитии цифровой грамотности в сфере высшего образования и исследований.

Каковы показатели PISA

На фоне массового использования языковых моделей школьниками и студентами, особое любопытство вызывают результаты PISA среди школьников различных стран мира. 

PISA (Programme for International Student Assessment) – это международное сравнительное исследование, проводимое Организацией экономического сотрудничества и развития (ОЭСР), чтобы оценить, насколько хорошо 15-летние школьники из разных стран мира умеют применять знания и навыки в реальной жизни. Тесты охватывают три основные области: чтение, математика и естественные науки. 

PISA не проверяет школьную программу в привычном виде, оно оценивает способность школьников понимать и интерпретировать тексты (чтение), анализировать и решать практические задачи (математика), применять научные знания к повседневным ситуациям (естественные науки).

Результаты PISA часто используются правительствами для реформ образования, потому что они показывают не только, кто впереди, но и почему – что влияет на успех учеников: качество учителей, школьная среда, мотивация, дисциплина, неравенство и так далее. Своего рода "термометр" системы образования. 

Так, в 2018 году результаты по трём странам были такие.

 ЧтениеМатематикаЕстественные науки
Швеция506502499
Великобритания504502505
Казахстан387423397

Стоит отметить, что исследования 2018-го и 2023 года показывают международный спад в результатах PISA, что может свидетельствовать о вероятном кризисе среднего образования.

Из хороших новостей: результаты Казахстана выросли в сравнении с прошлым тестированием, однако чтение, ключевой и наиболее уязвимый для ИИ навык, снизилось на 1 балл.

 ЧтениеМатематикаЕстественные науки
Швеция487482494
Великобритания494489500
Казахстан386425423

Риски внедрения ИИ

"Многие пользователи воспринимают LLM как второй интернет: инструмент, к которому можно обращаться с любыми вопросами – от бытовых до профессиональных. Это поднимает вопрос о подготовке кадров, которые бы понимали не только что такое LLM, но и как с ним работать", – считает Николай Тернов.

Но особенно тревожно, по мнению социолога, то, как языковые модели незаметно формируют картину мира пользователя. Большинство не осознаёт, что любая LLM – это не "объективный интеллект", а продукт выравнивания (alignment): модели настраиваются под этические, политические и идеологические рамки тех, кто их создаёт. Вспоминаются случаи с китайскими моделями, где ответы по чувствительным вопросам вроде Тайваня зависели от культурной и политической позиции разработчиков.

"Если раньше идеологию в школе проводили через учебник, сегодня она может встроиться в подсказку ИИ", – предупредил он.

Ключевой задачей современного педагога, по словам эксперта, становится не просто следить за дисциплиной или объяснять материал, а создавать среду, где необходимо мышление. Он приводит пример отложенной обратной связи: когда обсуждение идёт не по готовым рефератам, а по материалу, заданному заранее, но без заранее известных вопросов. Это позволяет отличить тех, кто в теме, от тех, кто просто сгенерировал текст. 

Технологии, считает Тернов, могут стать как благом, так и опасностью. Особенно в условиях Казахстана, где не все школы равны по инфраструктуре, кадрам, подходам. Там, где есть сильный учитель и методическая база, ИИ может стать трамплином. 

Наиболее уязвимым звеном в процессе внедрения ИИ в образование, по мнению Николая Тернова, остаётся педагог. 

"Чтобы эффективно обучать школьников работе с языковыми моделями или даже простейшим принципам машинного обучения, необходимы преподаватели, которые не просто владеют предметом, но умеют объяснять его доступным, педагогическим языком. Это особая категория специалистов – на стыке технической и методической компетенции", – подчеркнул он.

Внедрение ИИ может усилить неравенство школ

Сегодня ситуация неравномерна. В отдельных школах уже преподают основы Python, знакомят с анализом данных, формируют у школьников понимание алгоритмов и логики. В других – обучение информатике до сих пор ограничивается созданием папки и удалением файла. Это создаёт риск так называемого цифрового неравенства: реформы могут закрепить разрыв между хорошо оснащёнными школами в крупных центрах и провинциальными школами с минимальной материальной базой.

"И всё же в долгосрочной перспективе системное внедрение ИИ – это плюс. Шанс на трансформацию образования в сторону гибридного, междисциплинарного формата, где программирование, теория игр и причинное моделирование становятся частью даже гуманитарной подготовки. Такие предметы уже входят в основу университетских программ за рубежом и не только на технических факультетах", – считает социолог.

Для гуманитариев ИИ способен стать инструментом автоматизации и анализа: упрощать работу с текстами, историческими источниками, массивами данных. Для технарей – это пространство для моделирования, прототипирования, экспериментов. Но для этого недостаточно просто ввести модуль ИИ в учебный план. Необходима инфраструктура: от оборудования и сети до курсов для педагогов и методических кейсов. 

Готовы ли казахстанские LLM к внедрению?

На фоне ускоряющейся цифровой трансформации в образовании вопрос, чем именно будут пользоваться школьники: зарубежными языковыми моделями или отечественными?

Эксперт по машинному обучению Диас Калкаманов считает, что создание локальной LLM на казахском языке вполне достижимая задача, но путь её реализации критически важен. Есть два основных подхода. 

  • Обучение модели с нуля требует гигантского корпуса в десятки миллиардов токенов (цифровые активы, которые служат основой для платформ, использующих технологии ИИ). Так, проект ISSAI для Kaz-LLM к середине 2024 года смог собрать только 30 млрд токенов на казахском языке – причём 26 млрд из них были получены путём машинного перевода. Это создаёт риск искажения контекста и так называемого domain shift, когда модель учится не на живом языке, а на синтетике, лишённой реального культурного и лексического разнообразия.
  • Parameter Efficient Fine Tuning (PEFT) на базе существующих моделей. Использование методов LoRA и QLoRA позволяет дообучать всего 0,16-5% параметров, сохраняя эффективность. Диас Калкаманов приводит пример модели DeepSeekMath (7B), которая после правильного RL-дообучения (GRPO) обошла куда более крупные модели на специализированных задачах.

Однако, по его словам, главной проблемой остаётся не размер модели, а качество и разнообразие корпуса. Если обучение ведётся только на официальных текстах и нормативной лексике, модель научится говорить скучно, формально и узко. Чтобы ИИ действительно понимал и отражал казахскую реальность, нужны датасеты из социальных сетей, форумов, академических публикаций, технической документации, художественной литературы и кода.

"Даже небольшая модель будет бесполезной, если она обучена на бедном, однобоком корпусе", – подчеркивает эксперт.

Цензура контента

При этом особую угрозу эксперт видит в централизованном контроле над обучающими данными. Если государство вычеркнет из корпуса "неудобные" темы, то модель даже не узнает об их существовании. А если её ещё и научат "правильно" отвечать на политические или исторические вопросы, получится не цифровой помощник, а пропагандистский алгоритм с удобным интерфейсом.

Николай Тернов в свою очередь отмечает: главная преграда – дефицит данных. Даже если технически мы готовы, у нас нет достаточного объёма лингвистически чистого, стилистически разнородного и тематически насыщенного казахского контента. Большинство текстов – это либо официальная документация, либо плохо структурированный интернет-контент. В условиях, когда даже новостные сайты закрываются, а книги до сих пор не оцифрованы, модель может вырасти ограниченной.

"Чтобы языковая модель не просто "говорила", но и понимала контекст, аргументировала и анализировала, она должна быть обучена на богатом и разнообразном корпусе", – подчеркнул Тернов.

Оба эксперта сходятся в главном: технически возможно, но критически важно, на чём учить и как. Разработчики модели Sherkala, к примеру, использовали сбалансированный микс: казахский, турецкий, русский и английский языки, плюс код, техдокументация и математика. Это дало синергетический эффект: через перекрёстный трансфер языков повысилось и качество казахской речи. 

Николай Тернов считает, что критически важно, чтобы локальные модели создавались в атмосфере открытости, научного сотрудничества и с участием независимых специалистов. Пока же, по его словам, большая часть моделей на Hugging Face – это не самостоятельные разработки, а адаптации открытых архитектур вроде LLaMA, Mistral или Qwen.

Контекст

В прошлом году правительство Казахстана утвердило Концепцию развития искусственного интеллекта (ИИ) на 2024-2029 годы. Документ направлен на повышение роли ИИ в различных сферах жизни, обеспечение безопасности и этики в применении технологий, а также развитие инфраструктуры и человеческого капитала. Приоритетными отраслями экономики для внедрения ИИ являются: государственное управление, здравоохранение, образование, финансы, логистика, сельское хозяйство, промышленность.

Концепция предусматривает создание национальной платформы искусственного интеллекта на базе Smart Data Ukimet, которая будет общей площадкой для развития моделей ИИ в интересах всех сторон – государства, бизнеса, общества и отдельных персоналий.

Президент Казахстана Касым-Жомарт Токаев считает, что широкое применение искусственного интеллекта может послужить одним из факторов для развития республики. По его словам, искусственный интеллект способен кардинально поменять уклад жизни человека, автоматизировать многие рабочие процессы и создать значительную по своим масштабам экономическую ценность.

законопроект

14 мая 2025 года мажилис Казахстана принял в первом чтении проект закона "Об искусственном интеллекте". Документ регламентирует права и обязанности всех участников общественных отношений в сфере ИИ.

Некоторые положения закона:

  • Защита прав граждан. Пользователи систем искусственного интеллекта получат право на защиту персональных данных, обязательное информирование о принципах работы ИИ-систем и возможность оспаривать автоматизированные решения, принятые алгоритмами.
  • Классификация систем ИИ. Системы будут классифицированы по степени риска (от минимальной до высокой) и по уровню автономности (помощники, полуавтономные и полностью автономные). Системы высокого риска будут признаны объектами критически важной информационной инфраструктуры для контроля их безопасности.
  • Запрет некоторых практик использования ИИ. Под него попадут, например: алгоритмы, влияющие на поведение людей без их осознанного согласия (в том числе автоматическая генерация дипфейков), алгоритмы для оценки граждан или их классификации по социальному поведению и другим признакам, системы для анализа эмоций людей без их согласия, системы распознавания лиц в общественных местах (кроме случаев, разрешённых законом).
  • Национальная платформа искусственного интеллекта. Платформа обеспечит доступ к инфраструктуре для создания продуктов с ИИ и библиотекам данных для их обучения.
Читайте также
Новое управление искусственного интеллекта появится в минобороны: вице-министр ищет сотрудников Использование искусственного интеллекта при озвучке телепрограмм ограничат – минкультуры Искусственный интеллект повысит эффективность госуправления – президент Токаев Искусственный интеллект начинает назначать ответственных исполнителей и контролировать поручения в госорганах Казахстана Искусственный интеллект будет понимать казахский язык: Токаев подписал поправки по вопросам культуры, образования и наставничества Казахстан примет закон о регулировании искусственного интеллекта: как проходит международный форум Digital Almaty 2025 В Астане и Алматы запустили камеры с распознаванием лиц на базе искусственного интеллекта Как 5G, искусственный интеллект и соцсети влияют на журналистику Закон регулирования искусственного интеллекта вступил в силу в ЕС Генсек ООН назвал искусственный интеллект угрозой миру