Studenci kierunku Sztuczna Inteligencja i Uczenie Maszynowe zaprezentowali przygotowane przez siebie projekty zespołowe, z których każdy wyróżnia się znaczącym potencjałem społecznym i technologicznym.
Uczestnicy spotkania w Centrum Technologii Informatycznych, w tym dziekan Wydziału EEIA dr hab. inż. Jacek Kucharski, mieli okazję poznać kreatywne, a nierzadko również zaskakujące zastosowania sztucznej inteligencji. Jak podkreślił prof. Krzysztof Ślot, przewodniczący Rady Kierunku: „Każdy z projektów stanowi próbę praktycznego wdrożenia wiedzy zdobytej podczas studiów i pokazuje, jak zaawansowane kompetencje z zakresu szeroko rozumianego AI posiadają studenci kierunku. Rezultaty ich pracy mają charakter nietrywialny, nowatorski i – w wielu przypadkach – potencjalnie wdrażalny lub komercyjny. To nie są zamki na piasku”.
Projektów było dziewięć. Prezentujemy ich tematy, składy zespołów oraz krótkie opisy, które pozwalają dostrzec zarówno pomysłowość twórców, jak i realne perspektywy rozwoju przedstawionych rozwiązań.
Cyber-kompozytor
VAE for Lo-Fi music generation: Adam Krupski, Anita Białorucka, Michał Miszczobrocki
Opiekun projektu, mgr inż. Kacper Kubicki, wyjaśnia: „Lo-Fi to gatunek muzyczny ceniony za spokojną atmosferę, nostalgiczny nastrój i charakterystyczne, lekko „zużyte” brzmienie przywodzące na myśl stare nagrania. Idealnie sprawdza się jako tło do pracy, nauki czy odpoczynku.
Studenci udowodnili, że sztuczna inteligencja potrafi wiernie oddać ten klimat. Stworzyli Cyber-kompozytora – system generujący nieograniczoną liczbę relaksujących utworów na podstawie analizy cyfrowego zapisu nutowego MIDI. Model uczy się struktury melodii i zależności między dźwiękami, dzięki czemu potrafi samodzielnie tworzyć spójne i oryginalne kompozycje.
Jednym z najbardziej innowacyjnych elementów projektu jest hierarchiczna architektura z „cyfrowym dyrygentem”, który planuje ogólną strukturę utworu, a następnie wypełnia ją szczegółami, nadając całości logiczny i uporządkowany charakter.
Projekt uzupełnia intuicyjna aplikacja umożliwiająca generowanie muzyki jednym kliknięciem oraz dodawanie warstw dźwiękowych, takich jak szum deszczu czy delikatne trzaski winylowej płyty.”
CSI Łódź – czyli jak wyglądał Yorick za życia?
Automatic Anthropometry: Jan Michalski, Martyna Mazgaj, Włodzimierz Rywka
Projekt powstał pod opieką dr. inż. Piotra Łuczaka oraz mgr Kariny Woźniak, którzy wspólnie czuwali nad stroną techniczną i merytoryczną przedsięwzięcia. Zespół wykorzystał głębokie sieci neuronowe automatycznie nanoszące punkty antropometryczne na trójwymiarowy skan czaszki. Umożliwia to stworzenie wiarygodnej rekonstrukcji twarzy, opartej na rzeczywistych proporcjach anatomicznych.
Jak podkreśla dr inż. Piotr Łuczak: „Podejście to znajduje zastosowanie m.in. w antropologii sądowej czy muzealnych rekonstrukcjach postaci historycznych. W efekcie jedna czaszka może pomóc rozwiązać kryminalną zagadkę lub opowiedzieć historię, którą dotąd można było tylko próbować sobie wyobrazić.”
Biały wywiad – gdzie oni mają te lotniska?
Detection of military aircraft in aerial photographs: Miłosz Chełpa, Marek Tadeusiak, Adam Kupisz, opiekun: dr inż. Piotr Łuczak
Projekt wykorzystuje ogólnodostępne zdjęcia lotnicze oraz zaawansowane techniki analizy obrazu do identyfikacji potencjalnych lotnisk wojskowych. Dr inż. Piotr Łuczak wyjaśnia, że system nie skupia się na klasycznych strukturach lotniskowych, lecz na wykrywaniu skupisk samolotów wojskowych, co umożliwia lokalizowanie także obiektów tymczasowych, np. pasów startowych zorganizowanych na fragmentach autostrad.
Jak podkreśla: „Dzięki nowoczesnym metodom OSINT narzędzie przekształca surowe zdjęcia lotnicze w precyzyjną informację wywiadowczą, mogąc zapewnić użytkownikowi realną przewagę strategiczną. Zdaniem autorów zastosowane rozwiązania można z łatwością przenieść również na dane pochodzące ze zwiadowczych satelitów wojskowych.”
Na tych nagraniach już Cię nie ma...
Video cleaner: Lidia Cienkowska, Paweł Marchel, Dariusz Cydzik
Opiekun studentów prof. Krzysztof Ślot wyjaśnia: „Opracowane przez studentów narzędzie do przetwarzania wideo na pierwszy rzut oka mogłoby uchodzić za produkt rodem z Orwellowskiego Ministerstwa Prawdy: umożliwia (po dopracowaniu szczegółów) usuwanie z materiału filmowego dowolnie wskazanych obiektów, w tym także osób. Tego typu edycja, pozwalająca na tworzenie treści całkowicie niezgodnych z rzeczywistością, wydaje się jednym z potencjalnych narzędzi dezinformacji i manipulacji w mediach społecznościowych, czyniąc z nich kanały wywoływania chaosu i polaryzacji.
Prawdziwy cel projektu jest jednak odwrotny – zespół pracuje nad rozwiązaniem, które ma służyć obronie przed tego rodzaju manipulacjami. Materiały „oczyszczane” z wykorzystaniem ich narzędzia stanowią bazę do trenowania systemów wykrywających fałszerstwa, a w efekcie mogą pomóc w budowaniu skutecznych technologii przeciwdziałających deepfake’om i innym formom cyfrowej mistyfikacji.”
Cyber-wariograf
Deception Detector: Aneta Kilar, Patrycja Stępora, Adrian Rochmiński, Krzysztof Stolarek
Studenci zaprojektowali system, który na podstawie nagrania ocenia, czy osoba wypowiadająca się mówi prawdę. Opiekun grupy, dr inż. Piotr Duch, wyjaśnia, że narzędzie analizuje sposób wypowiedzi, ton głosu, zająknięcia, mimikę twarzy oraz mikrogesty.
Jak mówi: „Dzięki zastosowaniu sieci neuronowych system potrafi wychwycić subtelne wzorce, które mogą umknąć człowiekowi. To innowacyjne podejście może znaleźć zastosowanie w sytuacjach, gdy nie mamy możliwości weryfikacji faktów — na przykład w przypadku osobistych relacji czy trudnych do potwierdzenia historii.”
Łowca dezinformacji
Fact Analyzer: Jakub Bednarski, Adam Wasiela, Hubert Woziński
Opiekun projektu, dr inż. Paweł Kapusta, podkreśla: „W dzisiejszych czasach dezinformacja stała się niemal codziennym elementem naszego życia – wypowiedzi polityków, osób publicznych czy prezenterów często pełne są półprawd i manipulacji. Aby skutecznie chronić się przed tym zjawiskiem, konieczne było stworzenie aplikacji mobilnej, którą każdy mógłby mieć zawsze przy sobie i dzięki niej weryfikować przekazywane treści.
Opracowany przez studentów program umożliwia transkrypcję wypowiedzi w czasie rzeczywistym, a następnie przekazuje tekst do systemu inteligentnych, autonomicznych agentów AI. Analizują oni treść, wyodrębniają weryfikowalne fakty i – korzystając z zasobów internetu, aktów prawnych oraz artykułów naukowych – jak najszybciej ustalają, co jest prawdą. Co ważne, podają przy tym źródła, kontekst i uzasadnienie swojej oceny.”
mAIa - muza gier online
mAIa - modular artificial intelligence avatar: Jakub Bernaciak, Tomasz Rybiński, Dragan Sosnowski
Opiekun zespołu, dr inż. Piotr Duch, wyjaśnia, że Maia to modularna wirtualna streamerka AI zaprojektowana do integracji z platformami Twitch i Kick. Jej system składa się z kilku kluczowych modułów. VideoLLaMA analizuje obraz z gry, dzięki czemu Maia może reagować na wydarzenia na ekranie tak, jakby sama grała. LLaMA obsługuje czat i generuje interakcje z widzami. Moduł sterowania awatarem odpowiada za mimikę, gesty i animację postaci, natomiast moduł audio tworzy naturalnie brzmiący, syntetyczny głos. Połączenie wszystkich elementów sprawia, że Maia potrafi prowadzić transmisje, reagować na rozgrywkę i dynamicznie odpowiadać na wiadomości odbiorców, zachowując się jak prawdziwa streamerka.
Malarz portretów (pamięciowych)
Advanced system for creating memory portraits: Dominik Pabiniak, Marcin Klimkiewicz, Kamil Ciepluch
Tradycyjne metody tworzenia portretów pamięciowych bywają czasochłonne, wymagają specjalistycznych umiejętności rysunkowych i nierzadko prowadzą do powstania niedokładnych wizerunków. Studenci zaproponowali nowe rozwiązanie – system generujący fotorealistyczne portrety twarzy na podstawie opisów tekstowych.
Jak wyjaśnia opiekun grupy, dr inż. Paweł Kapusta: „W przeciwieństwie do metod konwencjonalnych, nasz system tworzy wysokiej jakości, realistyczne reprezentacje osób, które następnie mogą być niemal dowolnie modyfikowane w czasie rzeczywistym na podstawie dodatkowych informacji przekazywanych przez świadków lub ofiary. Możliwa jest także symulacja różnych elementów kamuflażu – takich jak okulary, zarost czy peruka – oraz generowanie wideo prezentującego twarz z wielu perspektyw.”
Zróbmy coś dobrego – zatrujmy dane
AI Poison Pill: Julia Komorowska, Mateusz Walczak, Piotr Włostek, Włodzimierz Rywka
Masowa kradzież danych przez wielkie korporacje, instytucje czy farmy treści korzystające z platform takich jak YouTube, Reddit czy prywatnych blogów stała się w ostatnim czasie poważnym problemem. Dr inż. Paweł Kapusta, opiekun zespołu, wyjaśnia: „Twórcy potrzebują skutecznych narzędzi chroniących ich prawa autorskie przed nieuczciwym wykorzystywaniem owoców ich pracy. Celem projektu było opracowanie systemu przeciwdziałającego kradzieży danych przez modele sztucznej inteligencji poprzez ich celowe „zatrucie” (data poisoning). Technika ta polega na wprowadzaniu do materiałów – tekstowych czy wideo – specjalnie przygotowanych informacji, które utrudniają lub zakłócają poprawne działanie systemów AI.”