A A+ A++
asadf copy-2

Seminarium otwarte nt. modelowania zagrożeń LLM

Bez tytułu

Zapraszamy na kolejne seminarium w ramach cyklu „Zastosowanie metod sztucznej inteligencji w diagnostyce i sterowaniu”.

 

Wykład pt. „Modelowanie zagrożeń dużych modeli językowych” odbędzie się

🟡Kiedy? 0️⃣6️⃣.0️⃣5️⃣. 2️⃣0️⃣2️⃣6️⃣ w godz. 13:30–15:00
 
Seminarium będzie również dostępne online przez ZOOM
🔵Transmisja online: bit.ly/4h7AOlM
🔵ID spotkania: 927 4351 6244
🔵Kod dostępu: 479284
 
Podczas prelekcji 👨‍🎓dr inż. Adrian Kapczyński👨‍🎓 przedstawi pogłębioną analizę architektury dużych modeli językowych z perspektywy identyfikacji i klasyfikacji rozmiarów ataku. Omówi m.in.:
✔techniki manipulacji danymi wejściowymi,
✔mechanizmy eksfiltracji danych,
✔ataki adwersaryjne wpływające na integralność i przewidywalność modeli,
✔ryzyko wycieku informacji wrażliwych,
✔bezpieczeństwo mechanizmów RAG,
✔podejścia do modelowania zagrożeń dla systemów AI w odniesieniu do standardów, takich jak MITRE ATLAS.

 

 

🔵 Biografia prelegenta:

Dr inż. Adrian Kapczyński – uczeń Profesora Andrzeja Grzywaka, pasjonat informatyki, od 28 lat zawodowo związany z informatyką oraz jej zastosowaniami. Nauczyciel, menedżer, futurolog, audytor wewnętrzny ISO 27001 oraz ISO 42001, audytor wiodący ISO 27001 i ISO 22301, konsultant strategiczny oraz ekspert z zakresu cyberbezpieczeństwa, specjalizujący się w obszarze biometrii oraz steganografii.

W ramach Politechniki Śląskiej pełni funkcję koordynatora podobszaru badawczego Cyberbezpieczeństwo, kierownika studiów podyplomowych "Cyber Science. Zarządzanie Cyberbezpieczeństwem", lidera zespołu badawczego oraz opiekuna kół naukowych.

Przewodniczący Komitetu nr 309 (ds. biometrii) w ramach Polskiego Komitetu Naukowego. Animator społeczności "17 53c" zajmującej się cyberbezpieczeństwem. Członek organizacji ISACA, IEEE, ACM, ISSA oraz Mensa Polska.

 

 

🔵Streszczenie wykładu:

W trakcie prelekcji zostanie przedstawiona pogłębiona analiza architektury dużych modeli językowych (LLM) z perspektywy identyfikacji i klasyfikacji powierzchni ataku, obejmująca pełen cykl życia modelu.

Omówione zostaną kluczowe kategorie zagrożeń charakterystycznych dla systemów generatywnych, w tym techniki manipulacji danymi wejściowymi, mechanizmy eksfiltracji danych oraz ataki adwersaryjne wpływające na integralność i przewidywalność działania modeli.

Ponadto zaprezentowane zostaną zagadnienia związane z ryzykiem wycieku informacji wrażliwych oraz bezpieczeństwem mechanizmów Retrieval-Augmented Generation (RAG) w kontekście ochrony prywatności i zarządzania dostępem do danych.

Ponadto przedstawione zostaną podejścia do modelowania zagrożeń opracowane z myślą systemów opartych na sztucznej inteligencji, wraz z ich odniesieniem do uznanych standardów, takich jak MITRE ATLAS.

Prelekcja będzie skoncentrowana na aktualnych kierunkach badań oraz praktycznych implikacjach projektowania bezpiecznych systemów wykorzystujących duże modele językowe.

asadf copy-3

© Politechnika Śląska

Polityka prywatności

Całkowitą odpowiedzialność za poprawność, aktualność i zgodność z przepisami prawa materiałów publikowanych za pośrednictwem serwisu internetowego Politechniki Śląskiej ponoszą ich autorzy - jednostki organizacyjne, w których materiały informacyjne wytworzono. Prowadzenie: Centrum Informatyczne Politechniki Śląskiej (www@polsl.pl)

Deklaracja dostępności

„E-Politechnika Śląska - utworzenie platformy elektronicznych usług publicznych Politechniki Śląskiej”

Fundusze Europejskie
Fundusze Europejskie
Fundusze Europejskie
Fundusze Europejskie