Polityka AI do '30 powinna w większym stopniu uwzględnić ochronę prywatności - UODO
Projekt polityki rozwoju sztucznej inteligencji w Polsce do 2030 roku powinien w większym stopniu skupić się na ochronie prywatności - poinformował Urząd Ochrony Danych Osobowych w uwagach do projektu. W ocenie urzędu, prawidłowe wyznaczenie standardów ochrony danych osobowych wymaga uwzględnienia kontekstu sektorowego.
"Projektowane cele i działania w zakresie rozwoju sztucznej inteligencji w Polsce powinny odpowiadać na wyzwania w obszarze bezpieczeństwa we wszystkich jego aspektach, także z perspektywy gwarancji dla prawa do ochrony danych osobowych i prawa do prywatności" - napisano w uwagach do projektu.
Zdaniem UODO, zaprezentowane w "Polityce rozwoju sztucznej inteligencji" ogólne, horyzontalne podejście do oceny bezpieczeństwa danych osobowych jest niewystarczające, a prawidłowe wyznaczenie standardów ochrony danych osobowych wymaga uwzględnienia kontekstu sektorowego dla poszczególnych obszarów funkcjonowania państwa.
Dodano, że powinna ona również zawierać konkretne rozwiązania dotyczące planu utworzenia ram prawnych dla rozwoju sztucznej inteligencji w Polsce z uwzględnieniem unijnego systemu regulacyjnego, zarówno na płaszczyźnie horyzontalnej, jak i sektorowej.
"Wnikliwego przeglądu obowiązujących przepisów wymaga zwłaszcza wykorzystywanie rozwiązań sztucznej inteligencji w usługach publicznych z zakresu ochrony zdrowia i wymiaru sprawiedliwości, również w kontekście kategorii przetwarzanych danych, szczególnie danych biometrycznych, dotyczących zdrowia, genetycznych, a także danych o karalności" - wskazano.
Urząd ponadto wskazuje, że stanowienie przepisów regulujących zasady i sposoby oraz cele funkcjonowania systemów sztucznej inteligencji i przyjęte środki ochrony powinno być poprzedzone oceną skutków dla praw podstawowych.
UODO postuluje m.in., aby:
- uznać ochronę danych osobowych za zasadę horyzontalną i uwzględnić prawo do ochrony danych osobowych w każdym sektorze Polityki AI: infrastruktura, zdrowie, edukacja, administracja publiczna, innowacje czy otwarte dane;
- przyjąć wyważone ramy regulacyjne legalizujące działania organów publicznych stosujących rozwiązania sztucznej inteligencji;
- doprecyzować rolę prezesa UODO jako niezależnego organu chroniącego prawo do prywatności w procesach dotyczących sztucznej inteligencji;
- uzupełnić Politykę rozwoju sztucznej inteligencji o obowiązek zgodności z RODO, AI Act i Konwencją 108+;
- uwzględnić ryzyka związane z otwartymi danymi i pseudonimizacją;
- wskazać zasady przetwarzania danych w Polsce, w tym klasyfikację danych według poziomu ich wrażliwości, oraz określić zasady przetwarzania danych krytycznych w infrastrukturze krajowej;
- rozszerzyć działania edukacyjne i kompetencyjne, w tym wzmocnić edukację i kształcenie obywateli niezależnie od platform technologicznych BigTech. (PAP Biznes)
mcb/ asa/