Anthropic випустила Claude Gov для американських спецслужб
Компанія Anthropic представила спеціалізовані моделі штучного інтелекту Claude Gov для роботи з секретною інформацією американських агентств національної безпеки
/sci314.com/images/news/cover/3042/3b693a4bbd90906c573619cd705f0dbb.jpg)
У четвер компанія Anthropic оголосила про випуск спеціалізованих моделей штучного інтелекту, призначених для клієнтів у сфері національної безпеки Сполучених Штатів. Нові моделі отримали назву Claude Gov і були розроблені у відповідь на безпосередні відгуки урядових клієнтів для виконання таких операцій, як стратегічне планування, аналіз розвідувальних даних та оперативна підтримка.
За повідомленнями, спеціальні моделі вже обслуговують американські агентства національної безпеки, при цьому доступ до них обмежений лише для тих, хто працює у секретних середовищах. Це означає, що системи функціонують в ізольованих мережах без доступу до інтернету, забезпечуючи максимальний рівень безпеки для обробки конфіденційної інформації.
Моделі Claude Gov відрізняються від споживчих та корпоративних пропозицій Anthropic, які також називаються Claude, у кількох ключових аспектах. За повідомленнями, вони здатні обробляти секретні матеріали, менше відмовляються від роботи з конфіденційною інформацією та спеціально налаштовані для роботи з розвідувальними та оборонними документами. Моделі також мають те, що Anthropic називає підвищеною кваліфікацією у мовах та діалектах, критично важливих для операцій національної безпеки.
Компанія Anthropic заявляє, що нові моделі пройшли таке ж тестування безпеки, як і всі моделі Claude. Компанія активно шукає урядові контракти, прагнучи надійних джерел доходу, і в листопаді уклала партнерство з Palantir та Amazon Web Services для продажу інструментів штучного інтелекту оборонним клієнтам.
Anthropic не є першою компанією, яка пропонує спеціалізовані послуги чат-ботів для розвідувальних агентств. У 2024 році Microsoft запустила ізольовану версію GPT-4 від OpenAI для розвідувального співтовариства США після 18 місяців роботи. Ця система працювала в спеціальній урядовій мережі без доступу до інтернету і стала доступною приблизно для 10 тисяч осіб у розвідувальному співтоваристві для тестування та відповідей на запитання.
Використання моделей штучного інтелекту для розвідувального аналізу викликає занепокоєння щодо конфабуляції, коли моделі генерують правдоподібну, але неточну інформацію. Оскільки нейронні мережі штучного інтелекту працюють на основі статистичних ймовірностей, а не функціонують як бази даних, вони потенційно можуть дезінформувати розвідувальні агентства, якщо використовуються неправильно. Наприклад, моделі можуть створювати переконливі, але неправильні резюме або аналізи конфіденційних даних, створюючи ризики, коли точність є критично важливою для рішень національної безпеки.
Конкуренція за оборонні контракти штучного інтелекту загострюється. За повідомленнями TechCrunch, Anthropic приєднується до інших великих компаній штучного інтелекту, які конкурують за прибуткову урядову роботу. OpenAI працює над зміцненням зв'язків з Міністерством оборони США, тоді як Meta нещодавно зробила свої моделі Llama доступними для оборонних партнерів. Google розробляє версію своєї моделі штучного інтелекту Gemini, яка може працювати в секретних середовищах. Бізнес-орієнтована компанія штучного інтелекту Cohere також співпрацює з Palantir для розгортання своїх моделей для урядового використання.
Просування в оборонну роботу представляє зміну для деяких компаній штучного інтелекту, які раніше уникали військових застосувань. Ці спеціалізовані урядові моделі часто потребують інших можливостей, ніж споживчі інструменти штучного інтелекту, включаючи здатність обробляти секретну інформацію та працювати з конфіденційними розвідувальними даними без запуску обмежень безпеки, які можуть блокувати законні урядові операції.
Розробка Claude Gov відображає зростаючий попит на спеціалізовані рішення штучного інтелекту в урядовому секторі. Ці системи повинні відповідати суворим вимогам безпеки та надійності, які не завжди необхідні для комерційних застосувань. Водночас, вони мають забезпечувати високу точність та ефективність в обробці критично важливої інформації для національної безпеки.
Впровадження штучного інтелекту в розвідувальну діяльність може значно підвищити швидкість та якість аналізу великих обсягів даних. Однак це також вимагає ретельного контролю та верифікації результатів, щоб уникнути потенційних помилок, які можуть мати серйозні наслідки для національної безпеки.
Схожі новини
- ШІ допомогло виявити 35 кліматичних явищ що регулюють температуру21.06.2025, 21:27
- Жінку відхилили на роботу через використання ChatGPT21.06.2025, 07:23
- Ілон Маск намагається змусити ШІ Grok поширювати дезінформацію19.06.2025, 23:54
- DARPA запустило програму навчання ШІ математиці для військових цілей19.06.2025, 13:02
- Німеччина створила автономну систему цензури в інтернеті18.06.2025, 13:19