#Opacus

Code Labs Academycodelabsacademyupdates
2026-01-29

Small clinical datasets burn privacy budget fast. In this guide, we train with (DP‑SGD) in using , tune clipping (C) + noise (σ), and plot AUROC vs ε to choose a defensible point.

Read: codelabsacademy.com/en/blog/ev

2025-12-03

Дифференциальная приватность в ML

Привет, Хабр! Сегодня поговорим в коротком формате о защите данных при обучении моделей, а именно в процессе обучения. Никому не понравится, если ваша нейросеть вдруг выдаст чужие паспортные данные или медицинские записи, правда? А ведь модели машинного обучения иногда склонны запоминать кусочки обучающего набора. Бывали случчаи, где из языковой модели вытаскивали строки с номерами телефонов и email тех людей, чьи данные были в тренировочном датасете. Стоит ли нам вообще кормить модель конфиденциальной информацией , если она потом болтает лишнее? К счастью, есть крутая техника — дифференциальная приватность . Она позволяет обучать ML-модели на реальных данных, но с гарантией, что никакой отдельный пользователь не будет опознан моделью. Разобраться в DP

habr.com/ru/companies/otus/art

#opacus #дифференциальная_приватность #ml #машинное_обучение #приватность_данных #обучение_нейросетей #DPSGD #PyTorch #конфиденциальные_данные

heise online (inoffiziell)heiseonline@squeet.me
2020-09-01
Für das Training von PyTorch-Modellen mit Differential Privacy bietet Opacus mehr Leistung und höhere Skalierbarkeit, versprechen die Facebook-Forscher.
Machine Learning: Facebook gibt PyTorch-Library Opacus als Open Source frei
#DifferentialPrivacy #Facebook #MachineLearning #Opacus #PyTorch

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst