Autor podejmuje analizę obowiązków podmiotów odpowiedzialnych za systemy sztucznej inteligencji wysokiego ryzyka w świetle Rozporządzenia 2024/1689. Celem artykułu jest usystematyzowanie obowiązków tych podmiotów oraz określenie skutków prawnych naruszeń wynikających z ich nieprzestrzegania. Przeprowadzona analiza dowodzi, że stosowanie przepisów w praktyce będzie wymagało wnikliwej znajomości treści Aktu o SI. Pomimo że prawodawca umiejscowił obowiązki podmiotów odpowiedzialnych w obrębie jednej sekcji rozporządzenia, to liczne odesłania znacząco komplikują proces ich praktycznego stosowania. Ponadto autor zwraca uwagę, że przepisy dotyczące obowiązków podmiotów stosujących systemy sztucznej inteligencji wysokiego ryzyka mają szeroki zakres przedmiotowy przy jednoczesnym zachowaniu wysokiego stopnia ich szczegółowości, co wywołuje wątpliwość w kontekście ich skuteczności. Podjęto także próbę odpowiedzi na pytanie, czy środki ochrony prawnej przewidziane w ramach AI Act w obecnym kształcie będą w stanie zagwarantować nam bezpieczeństwo prawne na odpowiednim poziomie.
Cited by / Share
Licencja
Utwór dostępny jest na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne – Bez utworów zależnych 4.0 Międzynarodowe.
Roczniki Nauk Prawnych · ISSN 1507-7896 | eISSN 2544-5227 | DOI: 10.18290/rnp
© Towarzystwo Naukowe KUL & Katolicki Uniwersytet Lubelski Jana Pawła II
Artykuły w czasopiśmie dostępne są na licencji Creative Commons Uznanie autorstwa – Użycie niekomercyjne – Bez utworów zależnych 4.0 Międzynarodowe (CC BY-NC-ND 4.0)