OpenAI opublikowało zaktualizowaną wersję zasad prywatności odnoszących się do ChatGPT i powiązanych usług. Zmiany dotyczą przede wszystkim zasad wykorzystania danych użytkowników, zasad retencji oraz uprawnień w kontekście przeglądów przez pracowników i partnerów.
W komunikacie firma podkreśla, że celem aktualizacji jest większa przejrzystość wobec użytkowników oraz jasne rozróżnienie reguł dla kont bezpłatnych, kont płatnych i klientów korporacyjnych. Poniżej tłumaczymy najważniejsze elementy aktualizacji i kto odczuje je bezpośrednio.
Co dokładnie zmienia OpenAI
OpenAI sprecyzowało, które rodzaje danych mogą być wykorzystywane do ulepszania modeli, a które pozostają wyłączone z treningu na prośbę użytkownika lub na mocy konkretnego planu usługowego.
W dokumencie pojawiają się też wyraźniejsze zapisy o retencji danych, o procedurach odpowiedzi na żądania organów ścigania oraz o zasadach udostępniania informacji podwykonawcom i partnerom przetwarzającym dane.
Kto ogłosił zmianę i gdzie można znaleźć źródło
Aktualizacja została opublikowana przez OpenAI w oficjalnej sekcji polityk prywatności na stronie firmy. Komunikat zawiera nową treść polityki oraz krótkie objaśnienie najważniejszych punktów dotyczących ChatGPT i powiązanych produktów.
Pełny tekst zaktualizowanej polityki prywatności można znaleźć na stronie OpenAI pod adresem: https://openai.com/policies/privacy-policy.
Zasady dotyczące wykorzystania danych do treningu modeli
OpenAI wyraźnie rozróżnia teraz scenariusze, w których treść rozmów może zostać użyta do trenowania modeli od tych, w których taka opcja jest wyłączona. Dla kont płatnych i korporacyjnych firma wskazuje mechanizmy ograniczające wykorzystanie danych do treningu, na żądanie klienta.
Dla kont bezpłatnych komunikat potwierdza, że treści mogą być analizowane w celu poprawy systemów, chyba że użytkownik skorzysta z dostępnych opcji prywatności tam, gdzie są one oferowane.
Zmiany w przechowywaniu i retencji danych
Nowa polityka zawiera szczegóły dotyczące okresów przechowywania różnych typów danych oraz warunków ich usunięcia. OpenAI opisuje kategorie danych, które są przechowywane dłużej ze względów bezpieczeństwa i audytu, a także warunki, przy których użytkownik może żądać usunięcia swoich konwersacji.
Dostęp pracowników i mechanizmy przeglądu danych
W treści aktualizacji OpenAI doprecyzowało, w jakich sytuacjach pracownicy lub zewnętrzni recenzenci mogą mieć dostęp do treści użytkowników. Firma wymienia cele takie jak bezpieczeństwo, moderacja nadużyć i zgodność z prawem jako podstawy do przeglądu, oraz wskazuje procedury kontrolne mające ograniczać dostęp.
Jednocześnie polityka wskazuje obowiązek zachowania poufności przez osoby przeglądające dane oraz standardy audytu wewnętrznego, które mają potwierdzać przestrzeganie tych reguł.
Konsekwencje dla firm i deweloperów korzystających z API
W komunikacie OpenAI adresuje także użytkowników API: opisano warunki, na jakich dane z wywołań API mogą być używane poza kontekstem danego klienta, oraz możliwości kontraktowego wyłączenia wykorzystania danych do treningu w ramach umów enterprise.
Deweloperzy powinni sprawdzić swoje umowy i ustawienia konta, ponieważ zmiany polityki wpływają na dostępność opcji opt‑out oraz na obowiązki związane z przechowywaniem i przekazywaniem danych użytkowników aplikacji.
Jak sprawdzić i zarządzać ustawieniami prywatności?
Użytkownicy ChatGPT powinni wejść do ustawień konta i przejrzeć dostępne opcje dotyczące wykorzystania danych oraz retencji. OpenAI wskazuje konkretne miejsca w panelu ustawień, gdzie można znaleźć opcje związane z prywatnością i anonimowością danych.
Firmy i administratorzy kont powinni dodatkowo sprawdzić dokumentację API i warunki umów enterprise, aby potwierdzić, jakie opcje dotyczące niewykorzystywania danych do treningu są dla nich dostępne oraz jakie formalne kroki są wymagane, by skorzystać z takich opcji.
Sprawdź pełny tekst zaktualizowanej polityki prywatności OpenAI
Komentarze