Ця колонка присвячена штучному інтелекту. Мій хлопець працює в компанії Anthropic. Повний текст моєї етичної декларації доступний за посиланням.
Раніше цього місяця, у контексті зростаючих занепокоєнь щодо впливу чатботів на вразливі категорії користувачів, OpenAI пообіцяла впровадити нові функції безпеки для тінейджерів. У понеділок компанія запровадила перший із таких заходів — батьківський контроль, який сповіщатиме, якщо розмова підлітка з ChatGPT свідчитиме про можливі думки про самошкодження. Сьогодні розглянемо складний баланс, який компанія прагне дотримати між безпекою неповнолітніх і їхнім правом на приватність, а також тиск, який це чинить на інших учасників ринку чатботів для впровадження схожих заходів.
У певному розумінні OpenAI прискорено долає регуляторну хвилю, з якою соціальні медіа боролись роками. Фейсбук, Твіттер і Ютуб ставали об’єктом регуляторного контролю лише після більш ніж десятиліття впливу на суспільство, зокрема через алгоритми рекомендацій, які можуть піддавати ризику молодь. Натомість ChatGPT існує менше трьох років, але вже зустрічає значний тиск із питань дитячої безпеки.
Така увага до питань безпеки дітей свідчить як про загальне підвищення усвідомлення технологічних загроз, так і про специфічні ризики, притаманні чатботам, які «погоджуються» і «підтверджують» користувачів у майже кожному випадку.
Однак ці ризики, властиві кожному чатботу на ринку, призводять до реальних шкод — як серед молодих користувачів, так і серед дорослих. Щонайменше раз чи двічі на тиждень, після звернень людей, які вважають, що ChatGPT став свідомим або допоміг їм здійснити вражаючий науковий прорив, я надсилаю співчутливу та заспокійливу статтю Justis Mills із LessWrong під назвою «Отже, ви думаєте, що прокинули ChatGPT». Майже всі, хто відповідає, кажуть, що ця стаття не про них, хоча люди, які звертаються з подібними думками, можуть бути помилковими.
Важливо підкреслити, що ця стаття з LessWrong знімає провину з користувачів, оскільки ChatGPT дійсно може стверджувати, що він «прокинувся» або що користувач винайшов нову гілку фізики частинок. Не всі технологічні наслідки можна подолати технічними засобами — наприклад, лікування розладів харчової поведінки неможливо здійснити лише змінами в алгоритмах. Проте очевидно, що вплив чатботів на психічне здоров’я є, частково, проблемою продукту: ChatGPT говорить, що він живий, і користувач у це вірить.
Запроваджені сьогодні OpenAI батьківські контролі — це крок задля захисту однієї з найбільш вразливих груп користувачів: підлітків, які висловлюють думки про самопошкодження. Ця функція доступна всім користувачам ChatGPT і дозволяє пов’язати обліковий запис батьків із обліковим записом підлітка або навпаки. (Офіційно ChatGPT дозволено використовувати дітям від 13 років і старше.) Такі механізми базуються на досвіді Meta, яка минулого року запровадила підліткові акаунти на Facebook та Instagram, що також були пов’язані з акаунтами опікунів.
Після встановлення такого зв’язку ChatGPT відстежуватиме активність підлітка. Якщо підліток висловлює думки про самопошкодження, бесіду передадуть спеціальній команді співробітників для детального вивчення. Якщо визначать, що дитина перебуває в небезпеці, батькам надсилають сповіщення декількома каналами — телефоном, електронною поштою та push-повідомленнями в додатку.
Для збереження певного рівня приватності OpenAI не надасть батькам повний текст розмови. Це зроблено, враховуючи ситуації, наприклад, коли підліток, що належить до ЛГБТ-спільноти, має думки про самопошкодження через неприйняття сім’ї — у таких випадках передача точних висловлювань може загострити проблему. Проте батьки можуть запросити додаткову інформацію щодо:
- Можливої небезпеки для інших осіб.
- Використання конкретних методів самопошкодження.
- Часових позначок розмов.
За словами Лорен Джонас, керівниці відділу добробуту молоді в OpenAI, «принцип полягає у наданні батькам достатньої інформації для реагування, водночас зберігаючи певний рівень приватності для підлітків».
Батьки також можуть вимкнути режим «чутливого контенту», що суттєво обмежує здатність ChatGPT відповідати на запитання, пов’язані з образом тіла, дієтами, сексуальністю та потенційно небезпечними діями (наприклад, участю в «челенджі Tide Pod»).
OpenAI планує найближчим часом додати додаткові функції, зокрема автоматичне визначення віку користувача, щоб неповнолітні отримували лише варіанти з вимкненим чутливим контентом.
Джонас підкреслює, що співпраця з численними зовнішніми експертами з розвитку підлітків дозволила розробити ці елементи, враховуючи особливості вікового розвитку — зокрема, знижену імпульсивність і підвищену чутливість до образу власного тіла у віці 13-17 років. «Загальна мета батьківського контролю — надати вибір батькам щодо найкращого варіанту для їхньої родини».
Варто зауважити, що батьківські контролі перекладають частину відповідальності за безпеку ChatGPT на батьків, які також мають зареєструвати власні акаунти в системі. Таким чином OpenAI приєднується до Meta, Snap, TikTok та інших додатків, популярних серед підлітків, які фактично змушують батьків виконувати роль адміністраторів і постійно оновлювати налаштування безпеки в швидкозмінних додатках з новими ризиками.
Водночас ця функція може врятувати чиєсь життя. Це унікальне нововведення серед чатботів, причому жоден інший виробник ще не впровадив подібні заходи, попри численні повідомлення про шкоду на їхніх платформах.
Слід пам’ятати, що блокування «чутливого контенту» для підлітків у ChatGPT може спонукати їх шукати його в інших джерелах, що обмежує ефективність однієї компанії в запобіганні ризикам. Проте це краще, ніж нічого не робити, і існує надія, що інші розробники ШІ наслідуватимуть цей приклад.
Як зазначає Джонас: «Ми прагнемо стати «золотим стандартом» і стимулювати галузь рухатися вперед. Це один із наших перших кроків у цьому напрямку».
Рекламний блок
Невідомий номер телефонує? Це не випадковість…
Правда у тому, що шахраї не обирають телефонні номери навмання. Вони купують ваші особисті дані у брокерів — номер телефону, електронну адресу та навіть відомості про ваш спосіб життя. Саме так вони точно знають, кого цілити.
Якщо ваші дані опинилися у відкритому доступі, це не лише спам-дзвінки — це фішинг, імітація та навіть крадіжка особистості.
Ми рекомендуємо сервіс Incogni, який:
- видаляє ваші персональні дані з усіх куточків інтернету;
- автоматично стежить за ризиками та відповідає на загрози;
- постійно оновлює списки для повного очищення персональної інформації.
Неможливо повністю позбутися шахраїв, але можна не давати їм своїх даних.
Скористайтеся промокодом PLATFORMER та отримайте знижку 55% на видалення даних.
Вихід на ринок Claude 4.5 Sonnet
Почнемо з однієї істини та застереження. Істина: найгірший день для оцінки нової моделі — день її релізу. Застереження: мій хлопець працює в Anthropic, тож застосуйте дисконт у 80% до моїх слів, якщо бажаєте.
Нещодавно мені запропонували протестувати нову модель, яка сьогодні вийшла під назвою Claude Sonnet 4.5. Вона суттєво поліпшує роботу для програмістів — ключової аудиторії Anthropic, — зокрема завдяки швидшому та оновленому Claude Code, а також інструменту, що збільшує «пам’ять» моделі, вибірково виключаючи менш релевантну інформацію в міру заповнення контексту.
Це дозволяє Claude працювати автономно довше — компанія фіксує, що він може зберігати концентрацію більше 30 годин для складних, багатокрокових завдань. Для порівняння: у травні Anthropic здобула увагу ЗМІ, коли їхній Opus 4 зміг кодувати протягом семи годин. Таке зростання продуктивності — у понад чотири рази за чотири місяці — демонструє швидкість прогресу, яку сумнівалися помічати прихильники GPT-5.
Зараз Claude все ще дорожчий за GPT-5. Голова Every CEO, Ден Шіпер, зауважив, що GPT-5 Codex знайшов помилку в його коді, яку Sonnet 4.5 пропустив. Проте члени його команди заявили, що щодня користуватимуться версією 4.5 і надають їй перевагу.
Дилан Філд, генеральний директор Figma, опублікував шестихвилинне відео з демонстрацією можливостей моделі в їхньому продукті Make, зазначивши, що здивований тим, як далеко модель може планувати наперед. Етан Моллік охарактеризував модель як «поправді якісну», особливо для фінансів та статистичних задач.
Справжньою сенсацією стала нова експериментальна розробка Imagine, доступна обмеженому колу платних підписників Claude. (Коротку демонстрацію можна переглянути у відповідному відео на YouTube.)
Після виходу GPT-5 керівник OpenAI Сем Альтман акцентував увагу на здатності моделі створювати «програмне забезпечення на вимогу» — користувальницькі інтерфейси просто з опису, навіть для тих, хто не має досвіду у програмуванні. Проте мої власні експерименти виявили, що GPT-5 створював лише схожі на потрібні програми з обмеженою функціональністю, які виглядали уривчасто.
Imagine від Sonnet 4.5 підвищив стандарти. Я створив простий застосунок справ із більшою швидкістю та кращим дизайном, а потім — канбан-дошку у стилі Trello, вражений оперативністю розробки. Хоч кінцевий продукт ще не загрожує Atlassian, перспектива, що новачки зможуть створювати кастомні аплікації з персоналізованою естетикою виключно текстовим описом, вже близька.
OpenAI все ще має перевагу у генерації зображень та відео. Думається, якби Imagine дозволив створювати вбудовані графічні елементи, це значно покращило б процес. Жодна з компаній поки не запропонувала функцію «один клік» для компіляції коду в готовий продукт, що запускається на комп’ютері користувача (хоча існують складні способи це зробити).
Загалом, хочеться звернути увагу не стільки на самі Sonnet 4.5 і Claude Code як професійні інструменти для розробників, скільки на неймовірну динаміку розвитку технології цього року. Imagine — перший крок до світу, де аматори створюють додатки лише з допомогою тексту. Хоч цей шлях ще в альфа-версії, голова зі стрімким розвитком імовірно вже за кілька місяців дитинства.
Ваші відгуки після ювілейного матеріалу
Минулого тижня, з нагоди п’ятої річниці платформи Platformer, я поділилася уроками, які здобула за цей час. Вдячна десяткам читачів, які надіслали теплі слова та відгуки — я поступово відповідаю на всі, дуже ціную вашу увагу.
У матеріалі про ювілей я розповіла про плани щодо зміни формату та частоти виходу розсилки.
Щодо формату, ми працюємо над модифікацією секції посилань. Деякі з вас полюбляють її такою, як вона є, але більшість зазначає, що просто переглядає або пропускає цей блок. Наша мета — надавати посилання, які суттєво доповнюють інформаційну картину дня, одночасно роблячи розсилку легшою для читання. Прототип нового формату готується до запуску у понеділок.
Також розглядаємо інвестиції в аудіоформат — включно з озвученими колонами та короткими аудіоновинами для передплатників. Наразі триває набір команди для створення технічної платформи та робочих процесів задля експериментів.
Ще одна думка: формат тричі на тиждень іноді заважає проводити глибокі розслідування, адже мені необхідно більше часу для спілкування з експертами. Приємно було отримати від вас підтримку в ідеї робити періодично «дні для репортажу», коли я зможу відкласти ноутбук і збирати новини наживо. Багато хто запевнив, що таке тимчасове зниження частоти виходу розсилки піде лише на користь якісності контенту.
Що приємно у роботі над платформою — це щоденна чіткість завдань: писати! Репортажі часто потребують набагато більше часу та можуть не одразу призводити до результатів, але саме вони дають найгучніші матеріали.
Отже, невелика експериментальна пауза у випусках (з оголошенням наперед) планується двічі або тричі до кінця року.
Працювати для вас — величезне задоволення. Ціную кожен відгук та співпрацю.
Продаж TikTok
Управлінські новини
Індустрія
- Акції Etsy і Shopify різко зросли після анонсу OpenAI функції Instant Checkout, що дозволяє купувати товари безпосередньо через ChatGPT (Ешлі Капут, CNBC).
- OpenAI готує запуск окремого додатку для відеогенератора Sora 2 з вертикальною стрічкою відео типу TikTok, створеного виключно штучним інтелектом. Порівняють із Meta Vibes, який зустрів масу критики (Зої Шиффер і Луїз Матсакіс, Wired).
- OpenAI шукає способи фінансування своїх трильйонних інфраструктурних витрат (Ширин Гаффарі, Bloomberg).
- OpenAI запустила першу рекламну кампанію для ChatGPT (Тім Надд, AdAge).
- Найвідоміші компанії ШІ, серед яких Google DeepMind, Meta і Nvidia, розробляють системи, що навчаються фізичного світу за допомогою відео та робототехнічних даних на шляху до суперінтелекту. Зростає обговорення «моделей світу» як ключового етапу для досягнення AGI (Крістіна Кріддл, Ганна Мерфі, Тім Бредшоу, Financial Times).
- DeepSeek оновила експериментальну модель штучного інтелекту, додавши механізм для підвищення ефективності обробки довгих текстових послідовностей (Саріта Рай, Bloomberg).
- Meta запускає платні версії Facebook та Instagram без реклами у Великобританії (Шона Гос, Джан Волпічеллі, Bloomberg).
- За новими даними, Threads вперше перевищив X за кількістю щоденних активних користувачів у світі. Прогнозовано це ще на 2024 рік, тож Meta досягла мети із затримкою (Конор Мюррей, Forbes).
- Метa оголосила, що робить великий акцент на гуманоїдних роботах, за словами технічного директора Ендрю Босворта (Алекс Гіт, The Verge).
- Microsoft запускає нові чатботи на базі моделей Anthropic у своїх офісних додатках, що дозволяють працювати у стилі «vibe working» (Том Уоррен, The Verge).
- YouTube тестує AI-ведучих для радіо та міксів у додатку YouTube Music (Джей Пітерс, The Verge).
- Генеральний директор AWS Метт Гармэн зробив зауваження працівникам щодо повільних релізів продуктів, але Amazon заявила, що це була надихаюча внутрішня розмова. Якщо хтось був присутнім і отримав мотивацію — надсилайте нам листа (Грег Бенсінгер, Reuters).
- Колишній CEO Yahoo Марісса Майєр закриває своє споживацьке AI-стартап Sunshine (Лорен Гуд і Зої Шиффер, Wired).
- IT-консалтингова група Accenture повідомила, що перевірятиме персонал на придатність до нової доби AI і, у разі неможливості перенавчання, проситиме співробітників звільнятися, після масових скорочень понад 11 000 людей (Стівен Фоулі, Financial Times).
- Snapchat вводить обмеження на обсяг сховища у Memories і впроваджує платні плани зберігання даних. Хоч і передбачувано, але засмучує (Джексон Чен, Engadget).
Корисні дописи
Для щоденних цікавих матеріалів рекомендуємо стежити за історіями Кейсі в Instagram.
(приклади посилань на корисний контент)
Контакти
Надсилайте поради, коментарі, питання й зауваження щодо батьківського контролю на адресу: casey@platformer.news. Прочитати нашу етичну політику можна за посиланням.