Jak nauka ukształtuje świat w najbliższej przyszłości? Niektórzy już to wiedzą. NeurIPS to jedna z najważniejszych dla naukowców i najbardziej tajemniczych dla reszty świata konferencji naukowych w obszarze AI. Spotyka się na niej ponad 20.000 naukowców z całego świata, którzy wymieniają sie swoimi przemyśleniami, osiągnięciami i porażkami. W tym roku odwiedziło ją dwóch badaczy IDEAS NCBR, dr Tomasz Odrzygóźdź i Sebastian Jaszczur. Opowiedzieli nam o najnowszych trendach w AI, przyszłości modeli językowych i bezpieczeństwie danych, których te technologie wygenerują.
Dr Tomasz Odrzygóźdź w 2019 roku ukończył doktorat z matematyki pod auspicjami Polskiej Akademii Nauk, a następnie dołączył do zespołu badawczego sztucznej inteligencji pod kierownictwem dra hab. Piotra Miłosia i dra Łukasza Kucińskiego (AWARElab). W trakcie studiów magisterskich i doktoranckich zajmował się matematyką oraz fizyką teoretyczną.
Obecnie prowadzi badania dotyczące przeprowadzania rozumowań przez algorytmy sztucznej inteligencji oraz uczenia ze wzmocnieniem. Jest głównym autorem publikacji “Subgoal Search for complex reasoning tasks” (opublikowanej na NeurIPS 2021), w której zastosowano mechanizm wskazywania celów pośrednich do skutecznego rozwiązywania złożonych logicznie problemów. Jest też autorem pracy “Thor: Wielding Hammers to Integrate Language Models and Automated Theorem Provers” (opublikowanej na NeurIPS 2022) pokazującej zastosowanie modeli językowych do przeprowadzania dowodów matematycznych oraz pracy “Fast and Precise: Adjusting Planning Horizon with Adaptive Subgoal Search” wprowadzającej ulepszone wersje algorytmów przeszukiwania przy użyciu celów pośrednich.
Tomasz interesuje się również fizyką a w szczególności teorią względności, mechaniką kwantową i kosmologią. Zajmował się również mentoringiem szczególnie uzdolnionej młodzieży i prowadził zajęcia przygotowujące do olimpiad przedmiotowych. Od 2022 r. jest badaczem zespołu IDEAS NCBR.
Sebastian Jaszczur jest doktorantem ucznia maszynowego na Uniwersytecie Warszawskim. W 2019 roku ukończył studia magisterskie na wydziale MIM UW. Jego praca dyplomowa była na temat zastosowania grafowych sieci neuronowych w rozwiązywaniu problemów logiki zdaniowej.
Sebastian zajmuje się uczeniem maszynowym od 2015 roku, obecnie skupia się na obliczeniach warunkowych w sieciach neuronowych i zwiększaniem efektywności architektury Transformer. W tej dziedzinie był pierwszym autorem publikacji "Sparse is Enough in Scaling Transformers", opublikowanej na konferencji NeurIPS 2021. Od 2021 r. jest badaczem zespołu IDEAS NCBR.