Грецький філософ Платон приблизно у 385 році до нашої ери описав випадок, коли Сократ поставив перед учнем завдання, відоме як «подвоєння квадрата». Учень, маючи завдання подвоїти площу квадрата, помилково подвоїв довжину кожної сторони, не усвідомлюючи, що для утворення нового квадрата зі збільшеною вдвічі площею довжина сторони має бути рівною діагоналі початкового квадрата.
Сучасні вчені з Кембриджського університету та Єврейського університету в Єрусалимі обрали це завдання для перевірки моделей штучного інтелекту на прикладі ChatGPT саме через його складність і неочевидність рішення. Вони зазначають, що з часу опису цієї проблеми Платоном понад 2400 років тому, вона слугувала дискусійним майданчиком для аргументів щодо того, чи математичні знання мають вроджений характер, або ж вони активуються лише завдяки розумовій діяльності чи набуваються через досвід.
Дослідники виходили з припущення, що через те, що ChatGPT і подібні великі мовні моделі (ВММ) навчаються переважно на текстах, а не на зображеннях, ймовірність знаходження у навчальному корпусі конкретної відповіді на задачу «подвоєння квадрата» є дуже низькою. Отже, якби чатбот зміг самостійно дійти правильного вирішення, це могло б свідчити на користь того, що математичні здібності здобуваються під час навчання, а не є внутрішньо притаманними.
Команда не зупинилася на цьому та пішла далі: у дослідженні, опублікованому 17 вересня у журналі International Journal of Mathematical Education in Science and Technology, вчені поставили чатботу завдання подвоїти площу прямокутника, застосовуючи аналогічну логіку. ChatGPT відповів, що оскільки діагональ прямокутника не може використовуватися для подвоєння його розміру, то в геометрії немає рішення для цієї задачі.
Проте гість Кембриджського університету, науковець Єврейського університету Єрусалима Надів Марко, та професор математичної освіти Андреас Стиліанідіс знали, що геометричне вирішення існує. Марко вказав, що ймовірність наявності помилкової відповіді в навчальних даних ChatGPT є «надзвичайно малою», що свідчить про те, що модель імпровізувала, спираючись на обговорення задачі про подвоєння квадрата — явний прояв генеративного, а не вродженого навчання.
За словами Марко:
– “Коли ми стикаємося з новою проблемою, інстинктивно ми намагаємося застосувати попередній досвід.”
– “У нашому експерименті ChatGPT, здавалося, робив щось подібне: як учень чи дослідник, він формував власні гіпотези та рішення.”
Дослідження також проливає нове світло на питання, пов’язані з тим, що таке «мислення» і «розуміння» у штучного інтелекту, відмічають науковці. Вони припускають, що ChatGPT може діяти у відповідності до концепції, відомої з освітньої психології як зона найближчого розвитку (zone of proximal development, ZPD). Цей термін описує проміжок між знаннями, які ми маємо, і тими, які ми можемо оволодіти з підтримкою належного навчання.
Зі свого боку Марко та Стиліанідіс припускають, що ChatGPT здатен автоматично застосовувати подібну структуру, розв’язуючи оригінальні проблеми, які не містяться в його навчальних даних, зумовлюючи це питаннями або підказками відповідного формату.
Цей випадок ілюструє одну з ключових проблем у сфері штучного інтелекту — “чорний ящик”, коли внутрішні процеси прийняття рішень системою залишаються непрозорими, однак, на думку дослідників, їх результати відкривають нові можливості для вдосконалення взаємодії з ІІ.
Як зазначає Стиліанідіс:
– “На відміну від доведених теорем, викладених у авторитетних підручниках, учні не можуть просто вважати докази ChatGPT правильними.”
– “Уміння розуміти та оцінювати докази, створені штучним інтелектом, стає ключовою компетенцією, яку необхідно інтегрувати в математичну освіту.”
З цією метою науковці підкреслюють важливість:
1. Вдосконалення навичок формулювання запитів (prompt engineering), наприклад,
– від прохання «поясни мені відповідь» до
– заохочення спільної роботи: «давай дослідимо цю задачу разом».
2. Розвитку системи освіти в напрямку навичок критичного аналізу відповідей, згенерованих штучним інтелектом.
Хоча команда дослідників ставиться з обережністю до своїх висновків і не радить ототожнювати роботу великих мовних моделей із людським способом розв’язання проблем, Марко охарактеризував поведінку ChatGPT як «ученеподібну».
Перспективи майбутніх досліджень включають:
– тестування сучасних моделей на ширшому спектрі математичних завдань;
– поєднання ChatGPT із динамічними геометричними системами або теоремними доказувачами, що створить більш насичене цифрове середовище для інтуїтивного дослідження;
– розвиток інструментів, які підтримують спільну роботу учнів, вчителів і штучного інтелекту в освітніх процесах.
Ця робота відкриває нові горизонти для розуміння потенціалу ІІ у навчанні та інтеграції його можливостей у педагогічну практику.