Меган Керквуд є науковою співробітницею в Tech Policy Press.
Минулого тижня Міністерство юстиції Великої Британії оголосило про успішне завершення пілотного проєкту з використання ChatGPT Enterprise від OpenAI, а також про укладення угоди, що включає положення про розміщення даних на території Великої Британії. У пресрелізі уряду зазначається:
– Цей історичний план, досягнутий у рамках безперервного партнерства OpenAI з Міністерством юстиції, дозволить компанії вперше надавати своїм комерційним клієнтам можливість зберігати дані на британській території.
– Можливість британським підприємствам розміщувати дані на безпечних, суверенних серверах не лише підвищує рівень конфіденційності та відповідальності, а й посилює національну стійкість на тлі зростаючих глобальних кіберзагроз.
Ця угода стала продовженням Меморандуму про взаєморозуміння (MoU), який британський уряд і OpenAI підписали раніше цього року. Документ надає компанії значний вплив на формування політики Великої Британії, включно з розбудовою інфраструктури штучного інтелекту та його впровадженням. Проте, оскільки цей меморандум не є обов’язковим для виконання й не передбачає оплачуваного консультування, він не зобов’язує сторони публікувати додаткові деталі, окрім загальнодоступних повідомлень.
Раніше у своїй публікації зазначалось, що MoU «наголошує на суверенітеті, вказуючи, що партнерство має ілюструвати використання ШІ для заохочення британських компаній […], при цьому OpenAI керуватиме ініціативою, що ймовірно сприятиме стартапам, які використовують їхні технології». Останні новини свідчать, що OpenAI активно підтримує застосування генеративного ШІ у державних службах, одночасно отримуючи пріоритет у державних закупівлях. Це відбувається у контексті пошуку OpenAI додаткового фінансування та інвестицій, підкріплених переходом компанії на прибуткову модель.
Згідно з даними порталу The Register, хоча «ChatGPT, здається, не братиме участі у законодавчому процесі», ні OpenAI, ні Міністерство юстиції не надали виданню додаткових подробиць, зокрема щодо термінів та суми контракту, окрім інформації, оприлюдненої раніше. Водночас CityAM повідомив, що «публічні закупівельні документи свідчать про загальну вартість контракту у £6,75 млн, строком на два роки, починаючи з жовтня 2025 року», проте повна інформація поки не оприлюднена.
У пресрелізі OpenAI наголошується, що їхні технології продовжать допомагати у виконанні рутинних завдань, зокрема:
1. підтримка написання текстів,
2. забезпечення відповідності нормативним вимогам,
3. юридичні роботи,
4. обробка даних і дослідницькі процеси,
5. аналіз документів.
За словами заступника прем’єр-міністра Девіда Леммі, процитованого у виданні The Independent, угода з OpenAI «дає змогу більше зосередитись на гуманітарних аспектах роботи, а не на рутинній адміністративній діяльності. За допомогою ШІ ми скорочуємо бюрократичне навантаження, що дозволяє працівникам безпосередньо займатися тим, що можуть зробити тільки люди — моніторингом правопорушників і захистом населення Великої Британії».
### Чому угода про розміщення даних не відповідає поняттю суверенітету
Оголошення про закупівлю супроводжується розширенням положень щодо локалізації даних, що надає користувачам OpenAI можливість «зберігати свої дані на території Великої Британії вперше». Компанія стверджує, що це дасть можливість британським організаціям розміщувати інформацію на захищених, суверенних серверах. Така ініціатива має стимулювати впровадження технологій OpenAI як у державному, так і в приватному секторі, одночасно дотримуючись правил захисту персональних даних. Втім, розміщення серверів американських компаній у Великій Британії не гарантує суверенного контролю над збереженими даними та сервісами.
Ключові проблеми включають:
– Закон США CLOUD Act (Clarifying Lawful Overseas Use of Data Act), який зобов’язує американські правоохоронні органи вимагати у компаній доступ до даних, навіть якщо вони зберігаються за кордоном, належать іноземним особам та знаходяться у дата-центрах ЄС чи Великої Британії. Це означає, що дані, розміщені на британських серверах OpenAI, можуть бути вилучені.
– Завдяки угоді значна частина фінансових вигод повернеться OpenAI, що навряд чи сприятиме широкому економічному розвитку у Британії. Відомо, що центри обробки даних не створюють значної кількості робочих місць.
– Рішення стимулює державні та приватні інституції впроваджувати технології OpenAI, що приносить компанії доходи від ChatGPT Enterprise на тлі зростаючих сумнівів щодо цінності генеративного ШІ на робочих місцях.
У той же час британські компанії починають відступати під натиском OpenAI. Асоціація UKAI висловила невдоволення надмірною увагою уряду до великих технологічних корпорацій США. Тим Флагг, генеральний директор UKAI, в інтерв’ю The Guardian зауважив: «Спостерігається значна нерівність між невеликою кількістю глобальних гравців, які мають прямий вплив на політику головного офісу прем’єр-міністра, і тисячами інших бізнесів, що складають ШІ-індустрію Великої Британії».
### Активне впровадження ШІ в державні служби
Центральний уряд Великої Британії наполягає на впровадженні штучного інтелекту у всі державні установи, переважно маючи на увазі генеративні ШІ-застосунки, наприклад, чатботи на основі великих мовних моделей. Втім, у своїх повідомленнях уряд часто не деталізує, які саме застосунки маються на увазі. Міністерство юстиції та Департамент охорони здоров’я й соціального забезпечення є яскравими прикладами впровадження таких технологій у публічній сфері.
Наприклад, у сфері охорони здоров’я працівникам нав’язано використання програм для нотування й підвищення продуктивності, таких як сервіси транскрипції на основі ШІ під час прийому пацієнтів. Ці інструменти автоматизують створення структурованих медичних записів і навіть проєктування листів пацієнтам. Очікують, що ці рішення прискорять роботу без необхідності додаткового найму персоналу. Проте у випробуваннях майже не згадується про можливі помилки великих мовних моделей, які є невід’ємною характеристикою їх функціонування. У медичних закладах помилки можуть мати загрозливі для життя наслідки, а відповідальність, згідно з настановами Національної служби охорони здоров’я (NHS) щодо інструментів транскрипції на основі ШІ, «залишається складною та поки що слабо врегульованою», й швидше за все ляже на NHS Trust у випадках медичної необережності.
Міністерство юстиції не лише стало першим відомством, яке пілотно впровадило ChatGPT Enterprise, а й започаткувало масштабну цифрову трансформацію, включно зі створенням «Justice AI Unit». Опис цього підрозділу заявляє, що це «міждисциплінарна команда спеціалістів з ШІ, дизайнерів, технологів і експертів, які працюють над відповідальним впровадженням штучного інтелекту в систему юстиції». Вебсайт проєкту має вигляд і оформлення, які нагадують продуктові сторінки OpenAI. Послуги, запропоновані на сторінці Justice AI Unit, передбачають широке застосування ШІ — від адміністративної роботи до управління кримінальними записами за допомогою єдиного цифрового ідентифікатора правопорушників.
Одним з напрямів є також використання технологій для «попередження» насильницьких інцидентів через оцінку різних факторів, зокрема віку ув’язненого та його попередньої участі у конфліктах під час утримання. Такі ініціативи ігнорують задокументовані шкідливі наслідки прогнозуючих систем у кримінальному правосудді, зокрема відтворення історичної упередженості та низьку точність. У своєму дослідженні «AI Snake Oil: What Artificial Intelligence Can Do, What it Can’t, and How to Tell the Difference» вчені-комп’ютерники Арвінд Нараянан і Сайяш Капур описують численні проблеми, пов’язані з «прогнозуючими» моделями штучного інтелекту. Застосування їх у кримінальному правосудді може призводити до викривлення суджень через використання неточних показників. У зв’язку з цим автори розглядають модель, яка оцінювала не злочини, а випадки арештів, припускаючи, що всі арешти свідчать про крадіжку, тоді як насправді серед затриманих є невинні та ті, чиї справи були закриті. Вони також відзначають суттєві расові диспропорції в поліційному контролі, що посилює упередженість і неточності прогнозів.
Експерти підкреслюють, що навіть під час використання великих обсягів даних такі інструменти залишаються неточними. Міністерство юстиції поки не оприлюднило повний перелік критеріїв, які буде брати до уваги його модель, але існує значний обсяг доказів того, що подібні прогнозуючі системи служать радше інструментами спостереження та дискримінації щодо груп населення, що непропорційно представлені у статистиці арештів і злочинності. Незважаючи на запевнення міністерства, що «ШІ має підтримувати, а не замінювати людський суд», прагнення автоматизувати процеси заради підвищення ефективності часто використовується для виправдання розширення цифрового спостереження, обмеження демократичних процедур та зменшення прозорості.
Загалом впровадження ШІ у роботу Міністерства юстиції є складовою стратегії AI Action Plan, із ключовими завданнями:
– сприяти економічному зростанню через підтримку провідних у світі британських юридичних і LawTech-секторів;
– посилювати партнерства для стимулювання інновацій у сфері штучного інтелекту в юридичній галузі.
Таким чином, інтеграція ШІ у функціонування Міністерства, крім прагнення підвищити продуктивність, є відповіддю на вимогу уряду орієнтувати діяльність відомств на економічне зростання, особливо через залучення інвестицій. Міністерство юстиції зазначає таких потенційних партнерів, як Google DeepMind, OpenAI, Anthropic, Microsoft, Scale AI та Meta AI, як ключові компанії для розвитку відповідної галузі.
Хоча може виникати занепокоєння щодо інтересів відомства, відповідального за систему правосуддя, у активному розвитку індустрії штучного інтелекту, це також свідчить про незмінну тенденцію британського уряду до передачі важливої державної інфраструктури у руки великих американських технологічних корпорацій, зокрема OpenAI — компанії, яка не соромиться налагоджувати тісні зв’язки з мало демократичними адміністраціями у США.