Przejdź do treści
Na zdjęciu kobieta stojąca przy półce z książkami i trzymająca książkę

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Nano‐Photonic Crystal D‐Shaped Fiber Devices for Label‐Free Biosensing at the Attomolar Limit of Detection

Utrzymanie zarówno wysokiej czułości, jak i wysokiego kryterium jakości (FoM, ang. figure of merit), jest kluczowe dla użyteczności rozwiązań, w szczególności optycznych gdy są one wykorzystywane jako biosensory przy wymaganym ekstremalnie niskim limicie detekcji (LoD, ang. limit of detection).

W niniejszej pracy, aby spełnić powyższe kryteria, zaprojektowano i wytworzono stos nanowarstw w postaci jedno-wymiarowego kryształu fotonicznego na światłowodach jednomodowych o przekroju poprzecznym w kształcie litery D. Układ nanowarstwowy umożliwił generację rezonansów wynikających z powierzchniowej fali Bloch'a. Zwiększenie kontrastu między nanowarstwami o wysokim i niskim współczynniku załamania światła (RI, ang. refractive index) wraz z redukcją strat umożliwia nie tylko osiągnięcie wysokiej czułości, ale także zwężenie szerokości pasma rezonansu, co prowadzi do znacznej poprawy FoM.

Przeprowadzono wstępne testy uzyskanego rozwiązania w zakresie czułości na zmiany RI analitu oraz wpływu dodatkowej warstwy nanometrycznej grubości na powierzchni, która stanowi odniesienie do wiązanej tam warstwy pochodzenia biologicznego. Ostatecznie oceniono zdolności biosensora do detekcji immunoglobuliny G (IgG) w bardzo niskich stężeniach w surowicy. Osiągnięto rekordowy limit detekcji wynoszący 70 aM.

Światłowodowy biosensor zdolny do uzyskania niezwykle niskiego limitu detekcji w zakresie attomolowym, nie tylko stanowi znaczące osiągnięcie techniczne, ale również może być postrzegany jako obiecujące narzędzie do wczesnej diagnostyki chorobowej.

Artykuł:

Advanced Science

Rok wydania:

Autorzy z PW:

Dariusz Burnat, Monika Janik, Norbert Kwietniewski, Emil Pituła, Mateusz Jakub Śmietana

Thin-film-based optical fiber interferometric sensor on the fiber tip for endovascular surgical procedures

Cel: Chirurgia wewnątrznaczyniowa wymaga precyzyjnego pomiaru parametrów, takich jak: ciśnienie, temperatura i obecność wybranych markerów. Analiza markerów pozwala na monitorowanie reakcji tkanek w czasie rzeczywistym i zapewnia skuteczność celowanych procedur terapeutycznych. Jednak dostępność małych czujników na końcówkach przyrządów chirurgicznych, które mogą być precyzyjnie stosowane, np. podczas nawigacji w świetle tętniaka, jest ograniczona. Dzięki możliwościom analizy odpowiedzi w czasie rzeczywistym, elastyczności i biokompatybilności, czujniki światłowodowe (OFS) mogą stanowić obiecujące rozwiązanie tego problemu. W niniejszym pracy sprawdzono możliwość zastosowania OFS w scenariuszach procedur chirurgii wewnątrznaczyniowej.

Metody: Czujnik oparto na jednomodowym włóknie światłowodu szklanego ze strukturą interferometryczną w postaci cienkich warstwy wykonanych na czole włókna. Materiały cienkowarstwowe mogą być dostosowane do wykrywania różnych parametrów fizycznych, a po funkcjonalizacji – także specyficznych analitów. Materiały zastosowane w tym czujniku to cienkie tlenki metali nanoszone metodą rozpylania magnetronowego. Do symulacji środowiska wewnątrznaczyniowego zastosowano pełnowymiarowy model naczyń krwionośnych wydrukowany w technologii 3D.

Wyniki: Eksperymenty wykazały wysoką mechaniczną wytrzymałość opracowanego podejścia – czujnik zachował funkcjonalność podczas manewrowania w modelu wewnątrznaczyniowym. Cienkowarstwowa końcówka czujnika pozostała nienaruszona i działała prawidłowo, zapewniając spójne i stabilne odczyty. Ponadto światłowód wykazał wystarczającą elastyczność, tj. podczas badań nie zaobserwowano istotnych strat wynikających z gięcia. Dodatkowo oceniono funkcjonalność czujnika w próbkach surowicy bydlęcej. Czujnik działał dobrze w surowicy, a wyniki sugerują, że użycie surowicy o niskim stężeniu może zmniejszyć niespecyficzne interakcje powierzchniowe.

Wnioski: Ogólnie rzecz biorąc, opracowany system OFS oferuje obiecujące rozwiązanie dla chirurgii wewnątrznaczyniowej i innych zastosowań biomedycznych, umożliwiając precyzyjną analizę wybranych interakcji na powierzchni.

Znaczenie: Nasze badanie jako pierwsze demonstruje użyteczność w procedurach wewnątrznaczyniowych cienkowarstwowych interferometrycznych czujników światłowodowych na powierzchni czołowej światłowodu do bezznacznikowych pomiarów biosensorycznych.

Artykuł:

IEEE Transactions on Biomedical Engineering

Rok wydania:

Autorzy z PW:

Norbert Kwietniewski, Agnieszka Martychowiec, Mateusz Jakub Śmietana 

Energy-Efficient Resource Allocation of Wireless Energy Transfer for the Internet of Everything in Digital Twins

Praca ma na celu poprawę stabilności bezprzewodowego przesyłu energii (WET, ang. Wireless Energy Transfer) w Internecie Rzeczy (IoT), a przez to wydłużenie czasu pracy urządzeń bezprzewodowych. W oparciu o środowisko symulacyjne cyfrowych bliźniaków (DTs, ang. Digital Twins), pokazujemy, jak zoptymalizować efektywność energetyczną systemów MIMO (ang. Multiple-Input Multiple-Output) na dużą skalę, działających w technologii WET. Duża, rozproszona macierz antenowa została zastosowana w sieci czujników bezprzewodowych. Technologia MIMO umożliwia tworzenie wąskich wiązek sygnału, co pozwala systemowi na ograniczenie zakłóceń.

Poprawa efektywności energetycznej w naszym systemie MIMO opiera się na wyborze anteny lub anten do przesyłu, dokładniejszym planowaniu zadań oraz optymalnym doborze parametrów. Wyniki symulacji pokazują, że system osiąga najlepszą wydajność przy maksymalnej mocy nadawczej wynoszącej 19 dBm. Całkowite zużycie energii w proponowanym algorytmie przydziału zasobów jest tylko o około 9% wyższe niż w przypadku algorytmu minimalizacji mocy. Dopuszczając różne wartości mocy przesyłanej przez kanał, liczba iteracji potrzebnych do zbieżności proponowanego algorytmu nie przekracza czterech. Zmiany liczby urządzeń w systemach MIMO nie wpływa na zdolność algorytmu do osiągnięcia zbieżności.

Po wprowadzeniu mechanizmu wyboru anteny, średnia moc energii odbieranej przez użytkownika znacząco się zwiększa w porównaniu do przypadku wykorzystania wyłącznie dużej, rozproszonej macierzy antenowej. Wyniki badań mogą stanowić punkt odniesienia dla problemów optymalizacji efektywności energetycznej w systemach MIMO na dużą skalę, pracujących w warunkach WET w środowisku IoT opartym na cyfrowych bliźniakach.

Artykuł:

IEEE Communications Magazine

Rok wydania:

Autorzy z PW:

Robert Marek Nowak 

Glass capillary systems for micro-volume fluorometry

Kapilarna fluorymetria może być obiecującą alternatywą dla metod wykorzystujących kuwety, umożliwiając pomiary przy użyciu niewielkich objętości próbek, jednocześnie zmniejszając zużycie analizowanego materiału oraz ilość generowanych odpadów. W niniejszej pracy, wykorzystując białko zielonej fluorescencji (GFP) jako analit, porównano wydajność trzech typów szklanych systemów pomiarowych opartych na: włóknach antyrezonansowych, kapilarach oraz standardowych kuwetach.

Spośród badanych systemów, w ocenie objętości analitu oraz intensywności fluorescencji, kapilara mieszcząca 2,9 μL została uznana za optymalny wybór. Układ pomiarowy oparty na kapilarze został dodatkowo zoptymalizowany pod kątem zwiększenia czułości pomiaru poprzez dostosowanie pozycji wiązki lasera wzbudzającej fluorescencję oraz optymalizację kształtu kapilary. Dzięki tym ulepszeniom, uzyskano znaczącą redukcję objętości próbki o 85% w porównaniu do wcześniejszych badań wykorzystujących kapilarną fluorymetrię, co podkreśla istotny wkład tej metody w oszczędność materiałów.

Opracowany system umożliwił uzyskanie dla GFP granicy detekcji na poziomie 26 μg/mL (1,01 nM) oraz rozdzielczości wynoszącej 3,5 μg/mL. Dzięki niskim kosztom oraz możliwości ponownego użycia, kapilarna fluorymetria stanowi atrakcyjną alternatywę dla tradycyjnej fluorymetrii opartej na kuwetach, oferując możliwość analizy małych objętościach.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Monika Janik, Marcin Olszewski, Emil Pituła, Jakub Hubert Sikora, Mateusz Jakub Śmietana 

Ambient air pollution and risk of hospital admission due to acute and chronic coronary syndromes: a time-stratified case-crossover study in the 3 largest urban agglomerations in Poland

Jakość powietrza w Polsce, szczególnie w dużych miastach, od lat stanowi poważny problem zdrowotny. Badania wskazują, że krótkotrwałe narażenie na zanieczyszczenia powietrza, takie jak pyły zawieszone PM10 i PM2,5, oraz dwutlenek azotu (NO2), może mieć istotny wpływ na ryzyko wystąpienia chorób sercowo-naczyniowych, w tym choroby niedokrwiennej serca (ChNS). 

W ramach badania przeanalizowano dane dotyczące hospitalizacji w trzech największych aglomeracjach miejskich w Polsce (Warszawa, Kraków, Trójmiasto) w latach 2012-2017. Łącznie zanotowano 88 467 przypadków przyjęć do szpitala z powodu przewlekłych postaci ChNS oraz 35 403 przyjęcia z powodu ostrych zespołów wieńcowych (OZW). W analizie wykorzystano modelowanie z zastosowaniem modeli DLNM (distributed lag nonlinear model), które pozwoliło na określenie związku między ekspozycją na zanieczyszczenia powietrza a ryzykiem hospitalizacji w okresie trzech dni od kontaktu z rozważanymi zanieczyszczeniami. 

Wyniki badania są następujące: 

  1. PM10: Wzrost ryzyka hospitalizacji z powodu przewlekłych zespołów wieńcowych o 0,7% na każde zwiększenie stężenia pyłu PM10 o 10 µg/m³ (wskaźnik skumulowany 1,007, przedział ufności 95%: 1,002–1,012). Dla ostrych zespołów wieńcowych ryzyko wzrastało o 0,9% (1,009 [1,002–1,015]). 
  2. PM2,5: Wzrost ryzyka przewlekłych zespołów wieńcowych o 0,8% (1,008 [1,001–1,014]) oraz ostrych zespołów wieńcowych o 0,9% (1,009 [1,001–1,018]). 
  3. NO2: W przypadku przewlekłych zespołów wieńcowych ryzyko wzrastało o 3,7% na każde zwiększenie stężenia dwutlenku azotu o 10 µg/m³ (1,037 [1,026–1,047]). Dla ostrych zespołów wieńcowych zależność była mniej wyraźna. 
  4. SO2: Związek między ekspozycją na dwutlenek siarki a ryzykiem hospitalizacji był mniej istotny (1,032 [0,998–1,067] dla ostrych zespołów wieńcowych). 

Zebrane dane potwierdzają, że zanieczyszczenia powietrza mają bezpośredni i mierzalny wpływ na zdrowie publiczne, szczególnie w kontekście chorób sercowo-naczyniowych. Wyniki te dodatkowo podkreślają konieczność wprowadzenia skutecznych działań na rzecz poprawy jakości powietrza w Polsce, co mogłoby zredukować liczbę hospitalizacji i poprawić jakość życia mieszkańców. 

Artykuł:

Polskie Archiwum Medycyny Wewnętrznej

Rok wydania:

Autorzy z PW:

Artur Jerzy Badyda, Piotr Kępa 

Sources, levels, and determinants of indoor air pollutants in Europe: A systematic review

Czyste powietrze jest niezbędne do życia, a jakość powietrza w pomieszczeniach jest czynnikiem determinującym zdrowie, ponieważ ludzie spędzają większość swojego codziennego czasu w zamkniętych przestrzeniach. Celem niniejszej publikacji było systematyczne przeanalizowanie dostępnych danych dotyczących źródeł, uwarunkowań i stężeń zanieczyszczeń powietrza wewnętrznego w ramach zestawu scenariuszy badanych w projekcie K-HEALTHinAIR. W tym celu przeprowadzono przegląd systematyczny literatury naukowej opublikowanej w latach 2013–2023, obejmujący różne typy pomieszczeń (szkoły, domy, szpitale, sale wykładowe, domy opieki, transport publiczny i stołówki) na terenie Europy, w których analizowano źródła i determinanty stężeń zanieczyszczeń powietrza wewnętrznego. Po dwuetapowej selekcji na poziomie streszczeń i pełnych tekstów, do ekstrakcji danych włączono 148 artykułów. Dla cząstek stałych, dwutlenku węgla i lotnych związków organicznych zidentyfikowano kilka źródeł emisji (obecność ludzi i ich aktywność, resuspensję cząstek, środki czyszczące, dezynfektanty, zajęcia plastyczne, gotowanie oraz palenie tytoniu), przy czym wentylacja, liczba osób przebywających w pomieszczeniu oraz charakterystyka budynku uznane zostały za istotne determinanty. Przegląd ten umożliwił również omówienie działań, które są już wdrażane lub powinny zostać podjęte w przyszłości w celu zapobiegania i kontroli obecności zanieczyszczeń powietrza wewnętrznego.

Artykuł:

Science of the Total Environment

Rok wydania:

Autorzy z PW:

Katarzyna Anna Affek, Artur Jerzy Badyda, Nina Doskocz, Piotr Kępa 

Recursive Neyman algorithm for optimum sample allocation under box constraints on sample sizes in strata

Alokacja optymalna próby w warstwowym schemacie próbkowania jest jednym z podstawowych zagadnień w badaniach reprezentacyjnych. Polega ona na takim podziale zadanej całkowitej liczebności próby pomiędzy warstwy, aby przy założonym schemacie losowania w warstwach wariancja tzw. warstwowego π estymatora była minimalna. W niniejszej pracy rozważamy problem alokacji optymalnej w obecności warunków nałożonych jednocześnie na minimalną i maksymalną liczebność próbek w warstwach. Rozważymy funkcję wariancji o ogólnej postaci, która w szczególności obejmuje przypadek prostego losowania bez zwracania w warstwach. Celem artykułu jest po pierwsze – wyprowadzenie (z wykorzystaniem warunków Karusha-Kuhna-Tuckera) ogólnej postaci rozwiązania optymalnego, czyli tzw. warunków optymalności. Po drugie – na podstawie uzyskanych warunków optymalności, opracujemy efektywny algorytm rekurencyjny o nazwie RNABOX, który rozwiązuje analizowany problem alokacji optymalnej. Algorytm RNABOX można traktować jako uogólnienie klasycznego rekurencyjnego algorytmu Neymana, powszechnie stosowanego do wyznaczania optymalnej alokacji próby w sytuacjach, gdy ograniczenia dotyczą tylko maksymalnych liczebności próbek w warstwach. Algorytm RNABOX został zaimplementowany w języku R i stanowi część pakietu stratallo, dostępnego w repozytorium Comprehensive R Archive Network (CRAN).

Artykuł:

Survey Methodology

Rok wydania:

Autorzy z PW:

Jacek Wesołowski, Wojciech Wójciak 

Dyscyplina:

Sparser, better, deeper, stronger: improving static sparse training with exact orthogonal initialization

Statyczny trening rzadki (static sparse training) ma na celu trenowanie rzadkich modeli sieci neuronowych i w ostatnich latach osiągnął imponujące wyniki. Kluczowym elementem konstrukcyjnym w tym podejściu jest tzw. rzadka inicjalizacja (sparse initialization), która określa trenowalną podstrukturę sieci poprzez binarną maskę. Obecne metody zazwyczaj wybierają taką maskę na podstawie uprzednio zdefiniowanej gęstej inicjalizacji. Takie podejście może jednak nie wykorzystywać w pełni potencjalnego wpływu maski na proces optymalizacji.

Alternatywnym kierunkiem, inspirowanym badaniami nad izometrią dynamiczną (dynamical isometry), jest wprowadzenie ortogonalności w rzadkiej podsieci, co pomaga w stabilizacji sygnału gradientu. W tej pracy proponujemy Exact Orthogonal Initialization (EOI) – nowy schemat rzadkiej inicjalizacji ortogonalnej, oparty na kompozycji losowych rotacji Givensa. W przeciwieństwie do innych istniejących podejść, nasza metoda zapewnia dokładną (nieprzybliżoną) ortogonalność i umożliwia tworzenie warstw o dowolnym stopniu rzadkości.

W eksperymentach wykazujemy wyższą skuteczność i efektywność EOI w porównaniu do powszechnie stosowanych technik rzadkiej inicjalizacji. W szczególności, nasza metoda pozwala trenować silnie rzadkie 1000-warstwowe sieci MLP i CNN bez użycia połączeń rezydualnych ani technik normalizacyjnych, podkreślając kluczową rolę odpowiedniej inicjalizacji wag w statycznym treningu rzadkim – obok wyboru samej maski.

Materiał konferencyjny:

Proceedings of the 41st International Conference on Machine Learning, Proceedings of Machine Learning Research, vol. 235

Rok wydania:

Autorzy z PW:

Filip Szatkowski 

Time-Dependent Nuclear Energy-Density Functional Theory Toolkit for Neutron Star Crust: Dynamics of a Nucleus in a Neutron Superfluid

Przedstawiamy nowe narzędzie numeryczne do badania gęstych warstw skorupy gwiazd neutronowych. Bazuje ono na zależnej od czasu teorii Hartreego-Focka-Bogoliubova oraz dokładnym funkcjonałem gęstości energii jądrowej typu Skyrme z rodziny Brussels-Montreal. Narzędzie to wykorzystujemy do analizy ewolucji czasowej jądra atomowego przyspieszającego w nadciekłej materii neutronowej będącej podstawowym budulcem skorupy gwiazdy neutronowej. W granicy małych prędkości wyznaczamy efektywną masę jądra w ośrodku. Obserwujemy istnienie prędkości krytycznych powyżej których aktywują się mechanizmy dyssypacji energii: emisja fononów, rozbijanie par Coopera oraz tworzenie wirów kwantowych. Opisane efekty mikroskopowe mają kluczowe znaczenie dla zrozumienia zjawisk fizycznych zachodzących w gwiazdach neutronowych. Co więcej, mechanizmy te mają charakter ogólny i odnoszą się również do innych układów nadciekłych, takich jak nadciekły hel czy ultrazimne gazy atomowe.

Artykuł:

Physical Review X

Rok wydania:

Autorzy z PW:

Piotr Magierski, Daniel Pęcak, Gabriel Wlazłowski, Agata Zdanowicz 

Dyscyplina:

Net energy analysis and net carbon benefits of CO2 capture and transport infrastructure for energy applications and industrial clusters

Technologia wychwytywania, wykorzystania i składowania dwutlenku węgla (CCUS) odegra kluczową rolę w eliminowaniu wpływu krajów uprzemysłowionych na zmiany klimatu oraz w osiąganiu celów zerowej emisji netto. Tzw. klastry CCUS, w których kilka zakładów przemysłowych tworzy sieć emitentów i wspólnie korzysta z infrastruktury do transportu i składowania CO₂, mogą przynieść strategiczne korzyści w rozwoju technologii zarządzania emisjami węgla.

Niniejsza praca wnosi wkład w ocenę infrastruktury wychwytywania i transportu CO₂ pod kątem strat energetycznych i śladu węglowego oraz umożliwia ukierunkowaną optymalizację procesu planowania sekwencji klastrów CCUS. Głównym celem badania symulacyjnego było ułatwienie identyfikacji technicznych i środowiskowych cech instalacji wychwytujących oraz sieci rurociągów dla projektów energetycznych, przemysłowych i wodorowych – w ramach konkursów na sekwencjonowanie klastrów.

W tym celu zastosowano analizę energii netto, aby ocenić stosunek kosztu energetycznego do uzyskanych korzyści w projektach dekarbonizacji sektora energetycznego, natomiast analiza zwrotu z inwestycji węglowej pozwoliła określić emisje związane z infrastrukturą wychwytu CO₂ w projektach przemysłowych i wodorowych. Dzięki temu możliwe było wskazanie priorytetowych elementów sieci potrzebnych do osiągnięcia zakładanych efektów redukcji emisji.

Modelowanie hydrauliczne oraz wyniki symulacji stanu ustalonego sieci rurociągowej posłużyły do rozszerzenia zakresu analizy energii netto i uwzględnienia wpływu infrastruktury transportowej. Przedstawiono dwa studia przypadków dotyczące polskiego krajobrazu CCUS: pierwsze odnosi się do sektora energetycznego, a drugie do projektów dekarbonizacji przemysłu i wodoru. Obejmują one wstępne oszacowanie wielkości instalacji wychwytujących CO₂ oraz infrastruktury transportu rurociągowego, przy założeniu, że miejsce składowania (lub terminal odbiorczy) znajduje się na Morzu Bałtyckim.

Sieć ma strukturę drzewową i składa się z 81 łuków, 50 węzłów źródłowych, 3 stacji sprężania oraz jednego punktu odbioru w miejscu składowania. Źródłami emisji są elektrownie opalane węglem i gazem ziemnym, rafinerie, cementownie oraz zakłady nawozowe.

Wyniki pokazują, że wskaźnik zwrotu energetycznego (ang. energy return on energy invested, EROEI) dla potencjalnych projektów wychwytu CO₂ na polskim rynku energetycznym wynosi od 8,3:1 do 14,7:1, natomiast wskaźnik zwrotu węglowego (ang. carbon return on carbon invested) dla projektów przemysłowych mieści się w zakresie od 4,1:1 do 12,9:1.

Opracowane podejście modelowe, które łączy analizę energii netto i emisji netto, dostarcza kryteriów oceny źródeł CO₂, wspierając programy sekwencjonowania klastrów i wdrażanie technologii CCUS w przyszłości.

Artykuł:

Applied Energy

Rok wydania:

Autorzy z PW:

Maciej Chaczykowski 

Scalable sensors of refractive index and liquid level based on multimode interference in small-core hollow core fiber

W niniejszym badaniu przeprowadzono kompleksową analizę zastosowania światłowodu z pustym rdzeniem o małej średnicy (HCF, ang. Hollow Core Fiber) do jednoczesnego pomiaru współczynnika załamania cieczy (RI, ang. Refractive Index) oraz poziomu cieczy (LL, ang. Liquid Level). Wykazano skalowalność czujnika – czułość na zmianę RI można regulować poprzez dobór długości segmentu światłowodu HCF.

W celu wzmocnienia interferencji modów wyższego rzędu przy jednoczesnym tłumieniu modu podstawowego zaproponowano zastosowanie pustego rdzenia o średnicy zaledwie 1 μm. Czujnik wykazał czułość na zmianę współczynnika załamania w zakresie od 62,14 nm/RIU (dla RI od 1,33 do 1,3403) do 3593,02 nm/RIU (dla RI od 1,4459 do 1,4502).

Przeanalizowano również działanie czujnika w pomiarze poziomu cieczy, stosując światłowody HCF o długościach segmentów od 4,5 mm do 62 mm. Wykazano, że zarówno zakres pomiaru, jak i czułość, mogą być skalowane w zależności od długości zastosowanego światłowodu. Czujnik poziomu cieczy został przetestowany w trzech różnych cieczach o odmiennych współczynnikach załamania i gęstościach, co pozwoliło zidentyfikować potencjalne źródła błędów pomiarowych.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Sławomir Ertman, Monika Halendy

Dyscyplina:

Mass transfer characteristics in disposable rocking bioreactors: A critical review and quantitative data catalogue

Bioreaktory wyposażone w oscylacyjnie wychylane foliowe (polimerowe) zbiorniki to urządzenia zalecane do hodowli in vitro wrażliwej i podatnej na niszczące działanie sił ścinających biomasy komórek zwierzęcych i roślinnych, oraz agregatów tych komórek, tkanek, organów, czy też hybrydowych struktur biomasa-biomateriał. W bioreaktorach wyposażonych w foliowe (polimerowe) zbiorniki jednorazowego użytku, ciekła pożywka jest napowietrzana bezpęcherzykowo, co jest efektem falowania pożywki wywoływanego oscylacyjnymi wychyleniami (1D, 2D lub 3D, w zależności od typu bioreaktora) całego układu hodowlanego. Taki sposób napowietrzania wykazuje szereg zalet, w przeciwieństwie do rozwiązań stosowanych w typowych bioreaktorach zbiornikowych napowietrzanych barbotażowo. Główną zaletą bezpęcherzykowego  napowietrzania pożywki jest minimalizowanie negatywnych zjawisk określanych mianem hydrodynamicznego stresu komórkowego, które negatywnie oddziaływają na hodowaną in vitro biomasę komórek zwierzęcych czy roślinnych. 

W artykule przedstawiono przegląd aplikacyjności najnowszych generacji bioreaktorów wyposażonych w oscylacyjnie wychylane zbiorniki, wraz z krytycznym przeglądem metod ilościowego określania wartości parametrów charakteryzujących efektywność napowietrzania (tj. przenoszenia masy), czyli: współczynnika kLa, czasu mieszania i mocy wprowadzonej na jednostkę objętości (P/V). Przegląd najnowocześniejszych rozwiązań aparaturowych został wsparty obszernym katalogiem danych ilościowych dotyczących warunków wymiany masy osiąganych w różnych komercyjnie dostępnych bioreaktorach. 

Artykuł:

Chemical Engineering Journal

Rok wydania:

Autorzy z PW:

Maciej Pilarek, Kamil Wierzchowski

Dyscyplina: