Сообщается, что компания OpenAI пересмотрела свои методы обеспечения безопасности для защиты от корпоративного шпионажа. По данным британской газеты Financial Times, разработчик ChatGPT усилил меры безопасности после того, как китайский стартап DeepSeek выпустил конкурирующую модель. OpenAI заявила, что DeepSeek незаконно скопировал ее модели с помощью метода «дистилляции».

Как говорится в отчете компании, усиленные меры безопасности включают в себя политику «информационного зондирования», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам. Например, по данным Financial Times, во время разработки модели o1 от OpenAI только проверенные члены команды, ознакомленные с проектом, могли обсуждать его в общих офисных помещениях.

И это еще не все. Теперь OpenAI изолирует проприетарные технологии на автономных компьютерах, внедряет биометрический контроль доступа в офисные помещения (путем сканирования отпечатков пальцев сотрудников) и запрещает сотрудникам пользоваться интернетом на рабочем месте. 

Сообщается, что компания также усилила физическую безопасность в центрах обработки данных и расширила штат специалистов по кибербезопасности.

Эти изменения отражают растущую обеспокоенность по поводу попыток украсть интеллектуальную собственность OpenAI.

Подготовил Роман БОНДАРЧУК, УзА

Русский
Chinese
Turkish
Tajik
Kyrgyz
Turkmen
Japanese
Arabic
English
French
Spanish
Русский
German
Ўзбек
Oʻzbek
Қазақ
OpenAI усиливает меры безопасности

Сообщается, что компания OpenAI пересмотрела свои методы обеспечения безопасности для защиты от корпоративного шпионажа. По данным британской газеты Financial Times, разработчик ChatGPT усилил меры безопасности после того, как китайский стартап DeepSeek выпустил конкурирующую модель. OpenAI заявила, что DeepSeek незаконно скопировал ее модели с помощью метода «дистилляции».

Как говорится в отчете компании, усиленные меры безопасности включают в себя политику «информационного зондирования», которая ограничивает доступ сотрудников к конфиденциальным алгоритмам и новым продуктам. Например, по данным Financial Times, во время разработки модели o1 от OpenAI только проверенные члены команды, ознакомленные с проектом, могли обсуждать его в общих офисных помещениях.

И это еще не все. Теперь OpenAI изолирует проприетарные технологии на автономных компьютерах, внедряет биометрический контроль доступа в офисные помещения (путем сканирования отпечатков пальцев сотрудников) и запрещает сотрудникам пользоваться интернетом на рабочем месте. 

Сообщается, что компания также усилила физическую безопасность в центрах обработки данных и расширила штат специалистов по кибербезопасности.

Эти изменения отражают растущую обеспокоенность по поводу попыток украсть интеллектуальную собственность OpenAI.

Подготовил Роман БОНДАРЧУК, УзА