Завантаження публікації
ОГОЛОШЕННЯ

OpenAI звинувачує китайську DeepSeek у незаконному використанні своїх ШІ-моделей

OpenAI заявляє про порушення її інтелектуальної власності китайською лабораторією DeepSeek: питання дистиляції, конкуренції та правових обмежень у сфері штучного інтелекту.


Євген Коновалець
Євген Коновалець
Газета Дейком | 29.01.2025, 13:17 GMT+3; 06:17 GMT-4

OpenAI проти DeepSeek: нове зіткнення в галузі штучного інтелекту

Світ штучного інтелекту опинився в центрі чергового конфлікту: компанія OpenAI заявила, що китайська лабораторія DeepSeek незаконно використала її ШІ-моделі для навчання власної системи. Це звинувачення викликало широкий резонанс серед експертів, адже йдеться не лише про можливе порушення правил OpenAI, а й про глобальну тенденцію у сфері розвитку штучного інтелекту.

OpenAI стверджує, що виявила докази використання техніки “дистиляції” — методу, що дозволяє меншим моделям навчатися на вихідних даних більших і потужніших систем. Це дозволяє розробникам створювати нові ШІ-рішення, використовуючи вже існуючі напрацювання. Хоча сама дистиляція є широко визнаною практикою у сфері ШІ, OpenAI наголошує, що її використання для створення конкуруючих моделей суперечить її політиці.

Що таке дистиляція в штучному інтелекті?

Техніка дистиляції вже давно використовується в розробці штучного інтелекту. Її основна мета — передача знань від великої й потужної моделі до меншої, яка може працювати швидше та ефективніше. Це дозволяє створювати більш економічні й оптимізовані рішення, що особливо важливо для мобільних пристроїв і хмарних сервісів.

Однак проблема виникає, коли компанії використовують дистиляцію для навчання власних моделей на основі даних комерційних систем, таких як ChatGPT, без дозволу власників. OpenAI стверджує, що саме таким шляхом пішла DeepSeek, що, на її думку, є незаконним використанням чужої інтелектуальної власності.

Як OpenAI виявила можливе порушення?

Компанія активно моніторить використання своїх сервісів і виявляє підозрілі акаунти. За інформацією OpenAI, разом із Microsoft вона вже заблокувала декілька акаунтів, пов’язаних із DeepSeek, через підозру у використанні дистиляції всупереч її правилам.

Проте OpenAI не надала конкретних доказів того, що DeepSeek дійсно використовувала її ШІ-моделі у процесі навчання. Це породжує дискусії у спільноті дослідників штучного інтелекту: деякі вважають, що подібні практики є поширеними і не обов’язково суперечать етичним чи правовим нормам.

DeepSeek: реакція на звинувачення та роль Китаю в розвитку ШІ

Станом на зараз китайська компанія DeepSeek не зробила жодних офіційних заяв у відповідь на звинувачення. Це може бути пов’язано з тим, що в Китаї тривають святкування Китайського Нового року, через що багато компаній призупинили свою діяльність.

DeepSeek є однією з провідних китайських лабораторій у сфері штучного інтелекту, яка активно розробляє власні мовні моделі. Китай загалом приділяє значну увагу розвитку ШІ, намагаючись наздогнати та перевершити західні компанії, такі як OpenAI та Google DeepMind.

Цей інцидент також вказує на загострення конкуренції між США та Китаєм у сфері штучного інтелекту. Західні компанії дедалі частіше висловлюють побоювання щодо використання їхніх технологій китайськими фірмами, що може вплинути на майбутню політику регулювання у цій сфері.

Чи можна заборонити дистиляцію? Думки експертів

Деякі дослідники вважають, що дистиляція є невід’ємною частиною розвитку штучного інтелекту, і обмежити її використання буде вкрай складно.

Рітвік Гупта, дослідник ШІ з Каліфорнійського університету в Берклі, зазначив, що багато стартапів та академічних установ використовують вихідні дані з великих комерційних ШІ-моделей, таких як ChatGPT, для покращення власних систем.

“Мене не дивує, що DeepSeek могла зробити те ж саме. Але припинити цю практику буде складно,” — зазначив він.

Дехто також наголошує, що необхідно розробити чіткі правила та міжнародні домовленості щодо використання великих мовних моделей для навчання нових систем. Без цього подібні конфлікти будуть лише загострюватися, особливо з огляду на стрімке зростання ринку штучного інтелекту.

Що буде далі?

Історія OpenAI та DeepSeek лише підтверджує, що штучний інтелект стає полем боротьби не лише між компаніями, а й між державами. Якщо OpenAI зможе надати переконливі докази своїх звинувачень, це може призвести до посилення заходів щодо захисту інтелектуальної власності в сфері ШІ.

Водночас ситуація показує, що технологічний розвиток неможливо повністю обмежити. Дистиляція, як метод, і надалі використовуватиметься, навіть якщо певні компанії намагатимуться заборонити її використання у конкурентних цілях.

Конфлікт між OpenAI та DeepSeek може стати прецедентом, який визначить майбутнє регулювання штучного інтелекту. Питання лише в тому, хто отримає перевагу — великі технологічні компанії, що прагнуть захистити свої напрацювання, чи незалежні дослідники, які хочуть використовувати ШІ для подальших інновацій.


Євген Коновалець — Кореспондент, який спеціалізується на суспільно важливих темах, висвітлює спорт, технології та культуру. Він проживає та працює в Україні.

Цей матеріал є частиною розгорнутої теми: DeepSeek, яка охоплює численні цікаві аспекти цієї події. Газета «Дейком» ретельно відстежує події, проводячи перевірку джерел та інформації, щоб забезпечити нашим читачам найбільш точне та актуальне інформування.

Цей матеріал опубліковано 29.01.2025 року о 13:17 GMT+3 Київ; 06:17 GMT-4 Вашингтон, розділ: Технології, Бізнес, із заголовком: "OpenAI звинувачує китайську DeepSeek у незаконному використанні своїх ШІ-моделей". Якщо в публікації з'являться зміни, про це буде зазначено та описано у кінці публікації.

Читайте щоденну газету та загальну стрічку новин газети Дейком, яка поєднує багато цікавого в понад 40 розділах з усіх куточків світу.


Save
ОГОЛОШЕННЯ

Новини, які можуть Вас зацікавити:

Штатні та позаштатні журналісти газети «Дейком» щодня готують сотні публікацій, щоб читачі отримували найоперативнішу, перевірену й глибоку інформацію. Ми працюємо для тих, хто хоче розуміти суть подій, бачити широку картину та бути на крок попереду.

Останні новини

Вибір редакції