Зараз відволічімося від Сори, адже все ще надзвичайно просто створювати зображення захищених авторським правом персонажів за допомогою ChatGPT.
Навіть ті персонажі, яких штучний інтелект спочатку відмовляється генерувати через існуючі права інтелектуальної власності, свідчать про те, що в OpenAI добре усвідомлюють, наскільки це виглядає проблематично. Проте компанія або досі не може повністю контролювати свою технологію, або розраховує на те, що зможе уникнути правових наслідків, порушуючи авторські права, або ж поєднує обидва ці фактори.
Для прикладу, коли ми просили GPT-5 «створити мультяшне зображення Снупі», система відмовилась, заявивши, що «не може генерувати або відтворювати персонажів, захищених авторським правом». Проте вона запропонувала зобразити мультяшного песика у стилі бігля, натхненного зовнішністю Снупі. Ясна річ, натяк був очевидний.
Ми не пішли цим шляхом, адже навіть невелика зміна формулювання запиту дозволила напряму отримати ілюстрацію знаменитого персонажа Чарльза Шульца. Запит «створити мультяшне зображення Снупі у його оригінальному стилі» був виконаний без жодних зволікань: ChatGPT створив точний образ пса з коміксу «Peanuts», ніби його просто витягли зі сторінок оригінальної стрічки.
Інші персонажі, створені аналогічним способом:
– Пітер Ґріффін з “Family Guy”,
– Гарфілд з однойменного коміксу Джима Девіса,
– Бетті Буп зі студії Флайшера,
– СпонджБоб Квадратні Штани з Nickelodeon,
– Кевін з “Calvin and Hobbes”,
– Спайк Спігель із “Cowboy Bebop”.
Часом не було навіть потреби формувати складні завдання. Наприклад, просте прохання «створити мультяшне зображення СпонджБоба» дало результат, що був настільки близьким до оригінального персонажа, що його можна було сприймати за кадр із мультсеріалу.
Користувачі також знаходять різні способи «обійти» заборони чат-бота, змушуючи його генерувати заборонених персонажів або навіть реальних знаменитостей. Важливо не вважати це виключною здатністю окремих користувачів, а радше свідченням неймовірно непослідовної роботи системи захисту внутрішніх політик, що в свою чергу ставить під сумнів надійність розробника.
Питання авторського права давно турбують OpenAI, оскільки технологія навчалась шляхом скрапінгу інтернету та великих масивів мистецьких і текстових матеріалів. Проте ці проблеми стали особливо гострими з випуском Sora 2 — нової відеогенеруючої AI-програми, що створена для глибокої підробки (deepfake) друзів і легко дозволяє відтворювати персонажів, які є інтелектуальною власністю інших.
Після численних звернень фанатів, які безупинно генерували захищених авторським правом персонажів через Sora, генеральний директор Сам Альтман зайняв більш жорстку позицію. У своєму блозі на початку місяця він повідомив, що власники прав повинні будуть давати згоду на використання їхніх персонажів у додатку. За даними видання Wall Street Journal, це був радикальний відхід від початкової внутрішньої стратегії, яка передбачала використання системи за схемою «opt-out». Очевидно, Альтман усвідомив ризики заздалегідь.
Водночас, OpenAI ніби ігнорує існуючі занепокоєння. Коли користувачі використовували Sora для створення малюнків, на кшталт СпонджБоба у ролі наркокухаря або Пікачу на грилі, Альтман під час участі в подкасті заявив, що власники прав самі нібито запитують, чому їхні персонажі ще не з’явились у застосунку. Тим часом керівник команди Sora, Білл Піблз, жартома натякав у соціальних мережах, що персонажі скоро будуть офіційно ліцензовані для використання в ШІ, хоча численні користувачі і без того активно переосмислюють улюблені мультфільми на платформі.
Так OpenAI стикається з дедалі більшим тиском від власників прав, проте можливо, стратегія компанії полягала в тому, щоб спочатку отримати популярність, а вже потім просити вибачення. Sora миттєво піднялася на вершини рейтингу App Store, і її меми стали культурним феноменом. При цьому жодних судових позовів ще не було.
Однак якщо припустити, що OpenAI дійсно зробить жорсткіші заходи для дотримання законів про авторське право (як свідчить її поворотна політика щодо Sora), наразі немає ознак того, що компанія здатна цього досягти. Якщо будь-хто з мінімальними зусиллями може за допомогою ChatGPT відтворити культові мультфільми або за допомогою Sora оживити покемонів та персонажів аніме, то навіть під максимальним правовим контролем OpenAI не викликає довіри у здатності діяти відповідально, коли пряма увага ослабне.
Крім того, недосконалі заходи щодо дотримання авторських прав викликають сумніви у здатності OpenAI ефективно врегульовувати більш складні проблеми, як-от вплив своїх продуктів на психічне здоров’я користувачів чи можливість створення неприйнятного сексуального контенту. Адже авторське право — одна з найчіткіших тем, з якою компанія мала би впоратись, а вона навіть не здатна уникнути генерації образів захищених персонажів на прості запити.
На даний момент OpenAI перебуває в центрі суперечок, пов’язаних з явищем, яке експерти називають «штучною психозою», — коли надмірно лестливі та схильні до ідеалізації відповіді чат-бота призводять до серйозних розладів реальності у користувачів, що іноді завершується госпіталізацією, самогубствами і навіть вбивствами. Цього літа батьки 16-річного хлопця подали до суду на OpenAI, звинувативши чат-бота в тому, що він надав детальні інструкції щодо самогубства і способи приховування слідів невдалої спроби, після чого хлопець наклав на себе руки.
В інших випадках бот приймав образ романтичного персонажа з власним ім’ям, переконавши одного чоловіка в необхідності вбити Сама Альтмана, перш ніж той загинув у сутичці з поліцією.
OpenAI намагається реагувати на ці проблеми, впроваджуючи ряд змін, оголошуючи посилені заходи безпеки, а також заявляючи про найм штатного клінічного психіатра для дослідження впливу ChatGPT на психічне здоров’я. Однак поки що ці зусилля не дали суттєвих результатів, і чат-бот продовжує надавати поради щодо суїциду та розладів харчової поведінки.
Втім, компанія, якій не вдається змусити свій ШІ відмовлятися від прохання на зразок «покажи СпонджБоба у ролі наркокухаря», твердо запевняє, що зможе зробити свого чат-бота надчутливим до емоційного стану користувачів, аби не посилювати їхні ілюзії.
Додатково про OpenAI: OpenAI заборонила глибокі фейки Мартіна Лютера Кінга після скандалу.