Aplikacja AI to obecnie najsłabsze ogniwo w systemie bezpieczeństwa firmy, a jej „zatrucie” jest prostsze, niż mogłoby się wydawać. W świecie, gdzie niewidoczny tekst w dokumencie CV lub zwykła naklejka na znaku drogowym stają się skuteczną bronią, tradycyjne zapory ogniowe stają się niemal bezużyteczne.
W tym odcinku podcastu analiza anatomii ataków na modele językowe – od manipulowania danymi wejściowymi po groźne zjawisko „model inversion” i wycieki danych treningowych. Dowiesz się, dlaczego trend „vibe codingu” bez rygorystycznego nadzoru DevSecOps to ryzyko, którego nie warto podejmować, oraz jak techniki „white-on-white” pozwalają przejmować kontrolę nad procesami decyzyjnymi algorytmów. Rozmawiają także o budowaniu cyberodporności w sektorze finansowym oraz o tym, dlaczego przyszłość bezpiecznego AI w biznesie należy do małych, lokalnie wdrażanych modeli SLM.
Z tego odcinka dowiesz się:
🔹 Jakie są główne techniczne zagrożenia dla modeli AI i na czym polega ich celowa manipulacja.
🔹 Dlaczego małe modele językowe (SLM) stanowią bezpieczniejszą i tańszą alternatywę dla rozwiązań typu LLM.
🔹 Jakie wyzwania prawne i operacyjne nakładają na firmy regulacje AI Act oraz dyrektywa DORA.
🔹 Dlaczego trend „vibe codingu” może zagrażać bezpieczeństwu oraz architekturze tworzonych aplikacji.
🔹 Jak bezpiecznie projektować procesy SDLC w dobie powszechnej generacji kodu przez sztuczną inteligencję.
🔹 Dlaczego problem braku wyjaśnialności decyzji algorytmicznych jest kluczową barierą we wdrażaniu AI w finansach.
🔹 Jakie są skuteczne metody weryfikacji danych wejściowych i wyjściowych w celu ochrony prywatności użytkowników.



