Przejdź do treści

Publikacje

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Global chromatin reorganization and regulation of genes with specific evolutionary ages during differentiation and cancer

Komórki nowotworowe cechują się wysoką plastycznością, co sprzyja ich adaptacji do zmieniających się warunków. Geny związane z podstawowymi procesami komórkowymi wyewoluowały u pradawnych organizmów, natomiast bardziej wyspecjalizowane geny pojawiły się później — wraz z powstaniem wielokomórkowości (geny metazoan) lub nawet dopiero po wyewoluowaniu ssaków. Analizy transkryptomiczne wykazały, że w nowotworach aktywowane są geny o starożytnym pochodzeniu, natomiast geny metazoan ulegają wyciszeniu. Pomimo istotności tych obserwacji, mechanizmy leżące u ich podstaw pozostają niezbadane. W niniejszym badaniu analizujemy lokalne i globalne mechanizmy epigenomowe, które mogą regulować geny w zależności od ich okresu ewolucyjnego. Wykorzystując dane o wieku ewolucyjnym genów, charakteryzujemy krajobraz epigenomowy, regulację ekspresji genów oraz organizację chromatyny w kilku typach komórek: ludzkich embrionalnych komórkach macierzystych, pierwotnych zdrowych limfocytach B, pierwotnych złośliwych komórkach B pacjentów z przewlekłą białaczką limfocytową oraz próbkach pierwotnych raka jelita grubego. Identyfikujemy zmiany topologiczne w organizacji chromatyny podczas różnicowania, obserwując wzorce represji przez kompleks Polycomb i zatrzymania polimerazy RNA II, które zostają odwrócone w procesie onkogenezy. Poza nierandomną organizacją genów i cech chromatynowych w trójwymiarowym epigenomie sugerujemy, że te wzorce prowadzą do preferencyjnych interakcji między genami o starożytnym, pośrednim i niedawnym pochodzeniu, odpowiednio mediowanych przez polimerazę RNA II, kompleks Polycomb oraz otoczkę jądrową. Nasze wyniki rzucają nowe światło na regulację genów według ich wieku ewolucyjnego i sugerują, że organizacja ta ulega zmianom podczas różnicowania i onkogenezy.

Artykuł:

Nucleic Acids Research

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński, Kaustav Sengupta 

It is not Risky, it is Healthy. Assessing of Soil Enzymatic Activity, Heavy Metal Contamination, and Health Risk for Urban Gardens Land Development in Warsaw, Poland

Ogrodnictwo miejskie w gęsto zaludnionych miastach pełni ważną rolę — wspiera dobrostan społeczny, bioróżnorodność, a czasem lokalną produkcję żywności. Jednak tereny ogrodów są zagrożone zanieczyszczeniem powietrza i gleby w obszarach zurbanizowanych, gdzie bliskość głównych dróg, kolei, lotnisk i działalności przemysłowej zwiększa ryzyko skażenia. Badanie, przeprowadzone w sześciu ogrodach działkowych i społecznych w Warszawie, obejmowało ocenę gleby, a w tym zawartości potencjalnie toksycznych pierwiastków (PTE) metodą spektrofotometryczną, toksyczności gleby i ryzyka zdrowotnego przy użyciu testu OECD 208 oraz metody identyfikacji zagrożeń US EPA, a także ocenę jakości powietrza - zbadano stężenie pyłu PM 2.5 mierzonego na wysokości 1,5 m za pomocą skalibrowanego nefelometru. Wyniki wykazały, że stężenia PTE w glebie pozostawały niskie, a aktywność dehydrogenaz i testy fitotoksyczności nie wykazały efektów toksycznych. Zarówno aktywność mikroorganizmów, jak i wzrost roślin nie były zaburzone przez poziom zanieczyszczenia, co sugeruje, że ogrody te utrzymują zdrowe ekosystemy. Dodatkowo, ocena ryzyka zdrowotnego potwierdziła brak istotnych zagrożeń związanych z kontaktem z glebą ogrodową — zarówno dla dorosłych, jak i dla dzieci. Obniżenie poziomu pyłu PM 2.5 w obrębie ogrodów dodatkowo podkreśla ich rolę jako ochronnych, zielonych przestrzeni. Wyniki te wspierają tezę, że ogrody miejskie, nawet w rejonach narażonych na miejskie emisje zanieczyszczeń, nie stwarzają istotnego zagrożenia dla środowiska ani zdrowia, czyniąc je bezpiecznymi i wartościowymi elementami funkcjonalnej struktury miasta. Badanie przeprowadził zespół naukowców z Politechniki Warszawskiej i SGGW w ramach projektu U-Garden finansowanego przez NCN jako międzynarodowy grant z funduszy JPI Urban Europe ENUTC 2021.

Artykuł:

Land Degradation & Development

Rok wydania:

Autorzy z PW:

Maria Zuzanna Kaczorowska, Damian Derewońko, Maciej Lasocki, Tomasz Dzieduszyński

Evolutionary divergence in CTCF-mediated chromatin topology drives transcriptional innovation in humans

Topologia chromatyny może wpływać na regulację genów, jednak wciąż słabo rozumiemy, w jaki sposób ewolucyjne różnice w strukturze chromatyny ukształtowały krajobrazy regulacji genów, prowadząc do powstania unikalnych cech człowieka. Miejsca wiązania białka CTCF (CCCTC-binding factor) determinują topologię chromatyny poprzez tworzenie domen i pętli. W niniejszej pracy pokazano, że w trakcie ewolucji naczelnych doszło do różnic ewolucyjnych w topologii chromatyny zależnej od CTCF, zarówno w skali domen, jak i pętli, co ujawnia odmienne mechanizmy kształtowania krajobrazów regulacyjnych. Domeny, które uległy rozbieżności specyficznej dla człowieka, prowadzą do szerokiej reorganizacji krajobrazu transkrypcyjnego. Z kolei zróżnicowane pętle CTCF są zgodne z aktywnością enhancerów specyficzną dla gatunku, wpływając na połączenia między enhancerami a genami docelowymi w sposób jednocześnie skoordynowany i ograniczony. W ramach tego skoordynowanego mechanizmu wykazano, że pętle CTCF specyficzne dla człowieka odgrywają istotną rolę w kształtowaniu różnorodności izoform transkryptów, co ma znaczenie funkcjonalne dla podatności na choroby. Dodatkowo potwierdzono funkcję tych pętli CTCF za pomocą organoidów ludzkiego przodomózgowia. Praca ta pogłębia zrozumienie ewolucji genetycznej z perspektywy architektury genomu.

Artykuł:

Nature Communications

Rok wydania:

Autorzy z PW:

Dariusz Plewczyński

Category Adaptation Meets Projected Distillation in Generalized Continual Category Discovery

Uogólnione ciągłe odkrywanie kategorii (GCCD, Generalized Continual Category Discovery) dotyczy procesu uczenia się z kolejno napływających, częściowo oznakowanych zbiorów danych, przy jednoczesnym odkrywaniu nowych kategorii. Tradycyjne metody opierają się na destylacji cech (feature distillation), aby zapobiec zapominaniu wcześniej nabytej wiedzy. Jednak taka strategia ogranicza zdolność modelu do adaptacji i skutecznego rozróżniania nowych kategorii. Aby temu zaradzić, autorzy wprowadzają nowatorską technikę, która łączy uczący się projektor (learnable projector) z procesem destylacji cech, co zwiększa zdolność adaptacji modelu, nie powodując utraty wcześniej przyswojonej wiedzy. Powstałe w ten sposób przesunięcie rozkładu danych dla wcześniej poznanych kategorii jest kompensowane przez pomocniczą sieć adaptacji kategorii (auxiliary category adaptation network). Wyniki pokazują, że chociaż każdy z elementów przynosi niewielkie korzyści samodzielnie, ich połączenie – nazwane CAMP (Category Adaptation Meets Projected distillation) – znacząco poprawia równowagę między uczeniem się nowych informacji a zachowaniem starych. CAMP wykazuje lepszą wydajność w porównaniu z innymi metodami w różnych scenariuszach GCCD i inkrementalnego uczenia się klas (Class Incremental Learning). Kod źródłowy metody jest dostępny w serwisie GitHub.

Książka:

Computer Vision – ECCV 2024, Proceedings, Lecture Notes In Computer Science, vol. XI

Rok wydania:

Autorzy z PW:

Grzegorz Rypeść, Daniel Marczak, Tomasz Trzciński

SVD calibration of inertial sensors

W pracy przedstawiono nową metodę kalibracji czujników inercyjnych (akcelerometrów, żyroskopów, magnetometrów) opartą na odpowiednim przetwarzaniu danych pomiarowych zebranych przy różnym zorientowaniu czujników względem mierzonej wartości wektorowej o stałym module. Zaproponowane podejście, oparte na koncepcji "dekompozycji kształtu i ruchu", pozwala na algebraiczne wyznaczenie kluczowych parametrów kalibracyjnych, w tym błędów zera, współczynników wzmocnienia oraz wzajemnej orientacji osi pomiarowych. Metoda ta skutecznie eliminuje konieczność wcześniejszej znajomości pozycji (orientacji) pomiarowych przez efektywne ich wyznaczanie bezpośrednio z danych pomiarowych, co stanowi istotne ułatwienie procesu kalibracji w praktycznych zastosowaniach. 

Algorytm kalibracji opiera się na dekompozycji według wartości osobliwych (SVD) oraz uogólnionym zagadnieniu wartości własnych. W pracy przedstawiono dowód poprawności algorytmu oraz przeanalizowano jego stabilność numeryczną. Dodatkowo zaprezentowano przykład zastosowania metody do kalibracji cyfrowego kompasu, ilustrując jej praktyczne możliwości. Przedstawione w pracy wyniki symulacji numerycznych potwierdzają skuteczność proponowanego podejścia oraz pozwalają na szczegółową analizę jego właściwości. Efektywność i przydatność opracowanego algorytmu zweryfikowano dodatkowo w eksperymencie przeprowadzonym w warunkach rzeczywistych.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Marek Wojciech Rupniewski

HyTract: Advancing tractography for neurosurgical planning with a hybrid method integrating neural networks and a path search algorithm

Pojawienie się zaawansowanych technik rezonansu magnetycznego (MRI) otworzyło obiecujące możliwości badania złożoności neurofizjologii mózgu, w tym sieci połączeń nerwowych. Bardziej kompleksowe zrozumienie tej sieci dostarcza nieocenionych informacji o podstawowej architekturze strukturalnej i dynamicznych funkcjach ludzkiego mózgu. W konsekwencji, określanie lokalizacji włókien nerwowych, znane jako traktografia, stało się przedmiotem dużego zainteresowania zarówno w badaniach podstawowych, jak i w praktycznych zastosowaniach, takich jak planowanie przedoperacyjne. Niniejsza praca przedstawia nową metodę traktografii, HyTract, skonstruowaną przy użyciu sztucznych sieci neuronowych i algorytmu wyszukiwania ścieżki. Nasze wyniki pokazują, że metoda ta może dokładnie identyfikować lokalizację włókien nerwowych w bliskim sąsiedztwie pola operacyjnego. W porównaniu z dobrze ugruntowanymi metodami, traktografie obliczone przy użyciu HyTract wykazują średnią odległość euklidesową równą 9 lub mniejszą, co wskazuje na dobrą dokładność rekonstrukcji traktów. Co więcej, jej architektura zapewnia możliwość wyjaśnienia uzyskanych traktów i ułatwia ich adaptację do nowych zadań.

Artykuł:

Neural Networks

Rok wydania:

Autorzy z PW:

Ewa Niewiadomska-Szynkiewicz

Engineering Magnetic Anisotropy: The Role of Centrifugal Casting and Magnetic Fields in Strontium Ferrites

Publikacja przedstawia wpływ metody odlewania odśrodkowego w zewnętrznym polu magnetycznym na mikrostrukturę i właściwości magnetycznie twardych ferrytów strontu. Wytwarzano tzw. magnesy wiązane poprzez odlewanie zawiesiny proszku ferrytowego w żywicy epoksydowej oraz magnesy spiekane, gdzie masę lejną stanowiła zawiesina wodna cząstek proszku, a otrzymane kształtki poddawano spiekaniu. Zastosowano proszki o różnej wielkości cząstek, a odlewanie prowadzono przy dwóch różnych szybkościach obrotowych. Dzięki temu określono wpływ tych parametrów na gęstość, mikrostrukturę oraz na orientację cząstek – teksturę krystalograficzną i anizotropię magnetyczną. Stwierdzono, że magnesy wytwarzane z proszku zawierającego głównie małe, jednodomenowe cząstki charakteryzują się większa remanencją w kierunku osi obrotu kształtki. Oznacza to, że cząstki układają się kierunkiem łatwego namagnesowania (osią „c” struktury tetragonalnej) równolegle do osi obrotu. W magnesach zawierających głównie duże, wielodomenowe cząstki proszku obserwowano ukierunkowanie obwodowe tzn. remanencja osiągała największe wartości w kierunku prostopadłym do osi próbki i stycznym do jej powierzchni. Zwiększenie szybkości obrotowej prowadziło do zwiększenia anizotropii właściwości magnetycznych. W magnesach wiązanych występowała silniejsza anizotropia magnetyczna i tekstura krystalograficzna niż w magnesach spiekanych. Badania dowiodły, że odlewanie odśrodkowe w zewnętrznym polu magnetycznym może być skuteczną metodą wytwarzania magnesów spiekanych, a także magnesów wiązanych o strukturze gradientowej i kontrolowanej teksturze.

Artykuł:

Metallurgical and Materials Transactions A-Physical Metallurgy and Materials Science

Rok wydania:

Autorzy z PW:

Marta Lipińska, Tomasz Płociński, Waldemar Kaszuwara, Bartosz Michalski, Justyna Zygmuntowicz

Entropy generation and exergy destruction in transient and compressible steam flow through ISA 1932 measuring nozzle

W systemach pomiarowych, w których strumień masy wyznacza się na podstawie spadku ciśnienia, dotąd rzadko analizowano dokładne straty energii. W naszym badaniu skupiliśmy się na tym, ile entropii powstaje i ile „użytecznej” energii (egzergii) tracimy, gdy przegrzana para przepływa przez dyszę pomiarową typu ISA 1932 przy zadanym strumieniu. Do analizy wykorzystaliśmy podejście oparte na drugiej zasadzie termodynamiki, które pozwala ocenić straty w przepływie ściśliwym i nieustalonym. Zachowanie przepływu obliczyliśmy przy użyciu dwóch modeli turbulencji z rodziny RANS: k-ω SST 2006 i realizowalnego k-ε. Wyniki porównaliśmy z wartościami uzyskanymi wg norm przemysłowych. Za punkt odniesienia przyjęliśmy sytuację niezakłóconego przepływu w rurociągu. Okazało się, że choć oba modele dają podobne wartości strumienia energii, to tempo powstawania entropii i utraty egzergii różni się nawet o 55%. Analiza pokazała, że udział entropii generowanej przez wymianę ciepła jest praktycznie pomijalny w porównaniu z całkowitą ilością entropii. Najwyższe zmierzone tempo powstawania entropii wyniosło 45,33 W/(m·K), a odpowiadające mu tempo utraty egzergii 4 190 W – niemal w całości spowodowane rozpraszaniem lepkościowym. Wyniki te odpowiadają wartościom bezwymiarowej całkowitej generacji entropii dla rozpatrywanej liczby Reynoldsa Re.

Artykuł:

Energy

Rok wydania:

Autorzy z PW:

Krzysztof J. Wołosz

Economic viability of mobile electricity storage facilities serving as an alternative means of electricity sharing by providing time-shifting ancillary service

Zapewnienie warunków do zwiększenia tzw. autokonsumpcji energii – czyli zużywania jej w miejscu produkcji przez odbiorcę końcowego – jest kluczowe, aby zmaksymalizować jego korzyści ekonomiczne, wynikające z posiadania odnawialnych źródeł energii. Jednym z rozwiązań, które pozwalają realizować takie działanie, są magazyny energii elektrycznej. W praktyce jednak pojawia się problem, gdy podmioty mają wiele rozproszonych lokalizacji i chcą zwiększyć autokonsumpcję, jednocześnie nie sprzedając nadwyżek energii do sieci. W takim przypadku trzeba szukać innych sposobów transportu energii między tymi punktami. Jedną z opcji jest wykorzystanie mobilnych magazynów energii elektrycznej. Aby mogły one zastąpić tradycyjną metodę dystrybucji energii (wymagającą sprzedaż nadwyżek do sieci), konieczne jest sprawdzenie, czy takie rozwiązanie ma sens techniczny i ekonomiczny. W artykule zaprezentowano metodykę oceny dziennych kosztów transportu energii między lokalizacjami z wykorzystaniem floty specjalnie zaprojektowanych pojazdów elektrycznych, które przewożą w swojej powierzchni ładunkowej bateryjne mobilne magazyny energii elektrycznej. W pierwszej kolejności zbadano techniczną wykonalność takiej usługi sieciowej, a następnie przeanalizowano opłacalność całego procesu dla dwóch kategorii pojazdów z pojemnością znamionową bateryjnych mobilnych magazynów energii od 24 kWh do 192 kWh. Na podstawie otrzymanych wyników stwierdzono, że możliwe jest świadczenie takiej usługi w formie przesuwania obciążenia w czasie (load time-shifting). Jednak rozwiązanie to zaczyna być opłacalne dopiero przy cenie energii elektrycznej przekraczającej 1,00 EUR/kWh (obecna cena zakupu energii elektrycznej z usługami dystrybucyjnymi wynosi około 0,2 EUR/kWh). Podmiot, który zdecyduje się na takie przenoszenie energii między lokalizacjami, może osiągnąć zysk od 605 EUR aż do 116 000 EUR. Lepsze rezultaty uzyskuje się w scenariuszach, w których wykorzystuje się pojazdy o większym potencjale energetycznym – czyli z większą pojemnością baterii i mniejszą masą urządzeń w torze mocy (przetwornice energoelektroniczne, rozdzielnice, przewody itp.).

Artykuł:

Energy Conversion and Management

Rok wydania:

Autorzy z PW:

Krzysztof Zagrajek 

Learning Permutation Symmetry of a Gaussian Vector with gips in R

Badanie ukrytych struktur w danych jest dużym wyzwaniem we współczesnej statystyce i uczeniu maszynowym. Wprowadzamy pakiet gips w języku R, który identyfikuje symetrie podgrup permutacji w wektorach Gaussowskich. Pakiet gips ma dwa główne cele: analizę eksploracyjną w odkrywaniu ukrytych symetrii permutacyjnych oraz estymację macierzy kowariancji pod warunkiem symetrii permutacyjnej. Jest konkurencyjny w stosunku do kanonicznych metod redukcji wymiarowości, oferując jednocześnie nową interpretację wyników. gips implementuje nowatorską procedurę wyboru modelu Bayesowskiego dla wektorów Gaussowskich, które są niezmiennicze względem podgrupy permutacji, opisanej w pracy Graczyk, Ishi, Kołodziejek i Massam (2022b), The Annals of Statistics, 50 (3) (2022).

Artykuł:

Journal of Statistical Software

Rok wydania:

Autorzy z PW:

Adam Przemysław Chojecki, Bartosz Kołodziejek

Dyscyplina:

Definitions and comprehensive assessment of fault isolability in expert-based diagnostic systems

Artykuł analizuje aktualny stan badań nad metodami wnioskowania diagnostycznego oraz oceną rozróżnialności uszkodzeń. Autorzy zwracają uwagę na rozbieżności terminologiczne, które pojawiają się w literaturze naukowej. W pracy zdefiniowano relacje rozróżnialności par uszkodzeń dla metod wnioskowania opartych na kolumnach (sygnaturach uszkodzeń) i wierszach (obserwowanych symptomach), wykorzystujących zarówno binarną, jak i wielowartościową ocenę residuów. Dodatkowo rozważono możliwość rozróżniania uszkodzeń na podstawie analizy sekwencji ich symptomów. W celu pełniejszej oceny i porównania różnych rozwiązań systemów diagnostycznych zaproponowano dwie nowe miary rozróżnialności uszkodzeń. Ich wartości ilościowe zależą od rodzaju relacji rozróżnialności dla danej pary uszkodzeń. Aby zilustrować proponowane podejście, autorzy przedstawili przykład porównania i oceny rozróżnialności uszkodzeń w różnych wariantach wnioskowania diagnostycznego w układzie szeregowym zbiorników buforowych.

Artykuł:

Mechanical Systems and Signal Processing

Rok wydania:

Autorzy z PW:

Jan Maciej Kościelny, Anna Sztyber-Betley

Application of machine learning models for evaluating the impact of roadside advertising on driver discomfort

Bezpieczeństwo ruchu drogowego w dużym stopniu zależy od wpływu reklam przydrożnych na dyskomfort kierowców, ponieważ zbyt duże zmiany parametrów oświetleniowych reklam oraz kontrastu względem otoczenia mogą powodować zmęczenie wzroku oraz obniżać koncentrację kierującego pojazdem. Niniejsza praca uwzględnia istotne czynniki związane z luminancją reklam/otoczenia  i infrastrukturą drogową w celu przetestowania kilku modeli uczenia maszynowego do szacowania dyskomfortu kierowcy wywoływanego przez billboardy reklamowe. Przeprowadzono trening i ocenę czterech modeli klasyfikacyjnych — regresji logistycznej, drzewa decyzyjnego, lasu losowego oraz sieci neuronowej — z wykorzystaniem zbioru danych obejmującego pomiary luminancji reklam/otoczenia oraz charakterystykę dróg. Do oceny modeli wykorzystano dokładność, czułość, swoistość oraz pole pod krzywą ROC (AUC). Wydajność modeli zoptymalizowano metodami regularyzacji LASSO i ElasticNet, walidację modeli przeprowadzono metodą 10-krotnej walidacji krzyżowej. Sieć neuronowa wyróżniała się równowagą pomiędzy odsetkiem wyników fałszywie pozytywnych i fałszywie negatywnych, osiągając 93,18% dokładności, czułość na poziomie 96,97% oraz swoistość na poziomie 81,82%. Regresja logistyczna uzyskała dokładność 86,36%, lecz wykazała niższą swoistość (45,45%), co zwiększyło odsetek wyników fałszywie pozytywnych. Natomiast drzewo decyzyjne osiągnęło najniższą zdolność klasyfikacyjną (75,00% dokładności, 72,18% AUC), podczas gdy model lasu losowego wypadł dość dobrze (79,55% dokładności, 81,13% AUC). Głównymi czynnikami przewidującymi dyskomfort kierowcy były maksymalna luminancja reklamy, kontrast względem otoczenia oraz średnia luminancja reklam, natomiast charakterystyka drogi miała niewielki wpływ. W szczególności sieci neuronowe pokazują, że algorytmy uczenia maszynowego mogą z dużą precyzją oceniać poziom dyskomfortu kierowców wobec reklam w pasie drogowym. Wyniki te dostarczają informacji pomocnych przy formułowaniu zasad mających na celu zwiększenie bezpieczeństwa ruchu i optymalizację warunków oświetlenia w pasie drogowym. W przyszłych badaniach należy rozważyć zaawansowane konfiguracje głębokich sieci neuronowych oraz systemy wykrywania dyskomfortu w czasie rzeczywistym w dynamicznych warunkach jazdy.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Marcin Chrzanowicz, Piotr Tomczuk, Piotr Jaskowski