Przejdź do treści
Na zdjęciu kobieta stojąca przy półce z książkami i trzymająca książkę

Wartość? 200 punktów

Publikacje to nieodłączna część pracy naukowców. To publikacje opisują i podsumowują dorobek badawczy, często wielomiesięczny albo nawet wieloletni wysiłek, budują pozycję naukowców i całych zespołów. Są także elementem ewaluacji – oceny konkretów osób, a co za tym udzie – całych dyscyplin.

Na poniższej liście prezentujemy najwyżej punktowane publikacje (czyli takie za 200 punktów), w które wkład mieli naukowcy z Politechniki Warszawskiej. Wykaz obejmuje dane od początku 2023 roku.

Back to Statistics Tail-Aware Control Performance Assessment

Ze względu na popularność sztucznej inteligencji w dzisiejszych czasach, naukowcy i praktycy mają tendencję do ignorowania osiągnięć metod statystycznych. Celem tej książki jest ponowne ugruntowanie metod statystycznych, szczególnie dla praktyków zajmujących się sterowaniem, dla których zadanie oceny wydajności układów sterowania jest istotne. Autor przedstawia elementy teorii statystyki, w tym podstawowe pojęcia statystyczne oraz opis rozkładów. Rozszerzając najczęstsze obserwacje w kierunku ogonów i statystyki ekstremalnej, prezentuje podejście statystyki odpornej, które dotyczy ogonów rozkładów, a następnie opisuje metody, które mogą wizualizować i uwypuklać właściwości statystyczne, jak również kwestie związane z pochodnymi. Poruszając statystyczne zagadnienia związane z trwałością układów sterowania, statystyką ekstremalną, niegaussowskością, L-momentami, indeksem ogonowości oraz diagramami proporcji momentów, autor dąży do zmiany tradycyjnych koncepcji i poszerzenia zakresu dostępnych metod. Zaprezentowano również studia przypadków symulacyjnych oraz rzeczywiste przykłady przemysłowe. Książka będzie interesująca dla inżynierów obiektowych odpowiedzialnych za sterowanie oraz naukowców oceniających systemy sterowania i wydajność procesów.

Książka:

Back to Statistics Tail-Aware Control Performance Assessment

Rok wydania:

Autorzy z PW:

Paweł Domański

Bucks for Buckets (B4B): Active Defenses Against Stealing Encoders

Usługi Machine Learning as a Service (MLaaS) oferują gotowe do użycia, wysokiej jakości modele enkoderów, które przekształcają dane wejściowe w bogate reprezentacje wektorowe, zawierające najistotniejsze informacje. Ze względu na bardzo wysokie koszty trenowania takich modeli, stają się one atrakcyjnym celem ataków polegających na ich kradzieży. W tego typu atakach sprawca wykorzystuje dostęp do interfejsu API, by lokalnie odtworzyć działanie enkodera – ponosząc tylko ułamek kosztów, które wiązały się z oryginalnym treningiem modelu.

W odpowiedzi na ten problem proponujemy Bucks for Buckets (B4B) – pierwszą aktywną metodę obrony, która zapobiega kradzieży modelu w czasie rzeczywistym, nie pogarszając przy tym jakości reprezentacji dostarczanych legalnym użytkownikom API.

Nasza metoda opiera się na obserwacji, że reprezentacje zwracane przez użytkowników próbujących skopiować model zajmują znacznie większy obszar przestrzeni osadzeń (embedding space) niż reprezentacje generowane przez użytkowników wykorzystujących model do konkretnych zadań. B4B dynamicznie dostosowuje jakość zwracanych reprezentacji w zależności od tego, jak bardzo użytkownik eksploruje przestrzeń odpowiedzi modelu.

Dodatkowo, aby uniemożliwić obejście zabezpieczenia przez tworzenie wielu kont (tzw. sybili), B4B wprowadza indywidualną transformację reprezentacji dla każdego użytkownika. Dzięki temu przeciwnik nie może skutecznie połączyć danych z wielu kont w celu wytrenowania lokalnej kopii modelu.

Nasze podejście otwiera nowe możliwości dla bezpiecznego udostępniania enkoderów przez publiczne API, wspierając tym samym ich szerszą dostępność i demokratyzację.

Materiał konferencyjny:

Advances in Neural Information Processing Systems 36. 37th Conference on Neural Information Processing Systems (NeurIPS 2023)

Rok wydania:

Autorzy z PW:

Jan Dubiński, Stanisław Pawlak, Tomasz Trzciński 

AI-Driven Framework for Scalable Management of Network Slices

Artykuł opisuje skalowalne rozwiązanie do orkiestracji i zarządzania ogromną liczbą plastrów sieci (ang. network slices), które wykorzystuje techniki sztucznej inteligencji (AI, ang. Artificial Intelligence) do projektowania odpornych i zrównoważonych sieci (ang. resilient and sustainable networks). Aby osiągnąć ten cel, zaproponowane podejście wprowadza rozdzielenie płaszczyzny zarządzania i orkiestracji (M&O, ang. Management and Orchestration) zgodne z zasadą rozdzielenia odpowiedzialności (ang. separation of concerns) oraz wykorzystuje techniki AI do automatyzacji operacji M&O.

Automatyzacja M&O realizowana jest za pomocą wielu rozproszonych pętli sterowania opartych na AI. Pętle sterowania mają różne cele optymalizacyjne i mogą działać na poziomie pojedynczego węzła, plastra sieci, między plastrami sieci (ang. inter-slice) lub w obrębie całej domeny orkiestracyjnej.

W artykule przedstawiono również studium przypadku, w którym zaproponowane inteligentne, rozproszone komponenty są wykorzystywane do skalowania, optymalizacji i usprawnienia działania infrastruktury sieciowej. Na końcu omówiono wyzwania i perspektywy rozwoju skalowalnego zarządzania i orkiestracji w kontekście ewolucji sieci w kierunku szóstej generacji (6G).

Artykuł:

IEEE Communications Magazine

Rok wydania:

Autorzy z PW:

Sławomir Kukliński, Robert Kołakowski

Observation of the antimatter hypernucleus Λ4H‾

U zarania Wszechświata asymetria pomiędzy ilością powstałej materii i antymaterii doprowadziła do przewagi materii, którą obserwujemy dziś. Pochodzenie tej asymetrii pozostaje jak dotąd nieznane. Zderzenia jądrowe przy bardzo wysokich energiach odtwarzają warunki podobne do tych, które panowały we Wszechświecie mikrosekundy po Wielkim Wybuchu – z porównywalnymi ilościami materii i antymaterii. W wyniku zderzenia ciężkich jonów realizowanych przy ultrarelatywistycznych energiach, powstaje istotna ilość antymaterii, co czyni te zderzenia skutecznym narzędziem eksperymentalnym do tworzenia ciężkich antyjąder oraz badania ich właściwości, dając nadzieję na lepsze zrozumienie asymetrii między materią i antymaterią.

W niniejszej pracy donosimy o zaobserwowaniu antyhiperjądra (antyhiperwodór-4), złożonego z hiperonu (antylambda), antyprotonu oraz dwóch antyneutronów.Odkrycia dokonano poprzez rejestrację jego dwuciałowego rozpadu, po wytworzeniu w ultrarelatywistycznych zderzeniach ciężkich jonów, prowadzonych przez eksperyment STAR w Relatywistycznym Zderzaczu Ciężkich Jonów (RHIC).

Łącznie zidentyfikowano ponad 15 kandydatów na antyhiperjądra, przy oszacowanym tle wynoszącym 6,4 zdarzenia. Zmierzono czas życia antyhiperjąder (antyhiperwodór-3) i (antyhiperwodór-4), porównując go z czasami życia ich odpowiedników w materii, co stanowi test symetrii między materią a antymaterią. Dodatkowo zmierzono różne stosunki wydajności produkcji (anty)hiperjąder (hiperjąder i/lub antyhiperjąder) oraz (anty)jąder (jąder i/lub antyjąder) i porównano je z przewidywaniami modeli teoretycznych, co dostarcza nowych informacji na temat mechanizmów ich powstawania.

Artykuł:

Nature

Rok wydania:

Autorzy z PW:

Daniel Kikoła, Debasish Mallick, Diana Pawłowska-Szymańska, Jan Pluta, Priyanka Roy Chowdhury, Srikanta Kumar Tripathy, Daniel Wielanek, Hanna Zbroszczyk

Dyscyplina:

Effect of soil compaction on the measurements of complex dielectric permittivity spectrum with an open-ended antenna probe and the coaxial cell system

Artykuł proponuje wykorzystanie spektroskopii dielektrycznej do pomiaru zmian przenikalności dielektrycznej gleby poddanej kompresji. Przedstawiono zależność przenikalności dielektrycznej gleby od gęstości w całym zakresie uzyskanych wartości, a tym samym dla istotnego parametru gleby w zakresie odpowiadającym zarówno optymalnym warunkom wzrostu roślin, jak i warunkom hamującym ich rozwój. Pomiary przeprowadzono dla trzech typów gleb o różnej wilgotności, wykorzystując sondę antenową o otwartym zakończeniu (OE-A) działającą w zakresie częstotliwości 20 MHz–1,2 GHz oraz układ celki współosiowej w zakresie częstotliwości 20 MHz–3 GHz. Wyniki eksperymentalne wykazały, że wzrost gęstości objętościowej i zawartości wody w glebie wpływa na widmo zespolonej przenikalności dielektrycznej – zaproponowano model opisujący tę zależność. Przenikalność dielektryczna gleby, jako parametr odzwierciedlający jej wilgotność i gęstość, może być przydatna w ocenie jakości gleby.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Arkadiusz Lewandowski 

Nano‐Photonic Crystal D‐Shaped Fiber Devices for Label‐Free Biosensing at the Attomolar Limit of Detection

Utrzymanie zarówno wysokiej czułości, jak i wysokiego kryterium jakości (FoM, ang. figure of merit), jest kluczowe dla użyteczności rozwiązań, w szczególności optycznych gdy są one wykorzystywane jako biosensory przy wymaganym ekstremalnie niskim limicie detekcji (LoD, ang. limit of detection).

W niniejszej pracy, aby spełnić powyższe kryteria, zaprojektowano i wytworzono stos nanowarstw w postaci jedno-wymiarowego kryształu fotonicznego na światłowodach jednomodowych o przekroju poprzecznym w kształcie litery D. Układ nanowarstwowy umożliwił generację rezonansów wynikających z powierzchniowej fali Bloch'a. Zwiększenie kontrastu między nanowarstwami o wysokim i niskim współczynniku załamania światła (RI, ang. refractive index) wraz z redukcją strat umożliwia nie tylko osiągnięcie wysokiej czułości, ale także zwężenie szerokości pasma rezonansu, co prowadzi do znacznej poprawy FoM.

Przeprowadzono wstępne testy uzyskanego rozwiązania w zakresie czułości na zmiany RI analitu oraz wpływu dodatkowej warstwy nanometrycznej grubości na powierzchni, która stanowi odniesienie do wiązanej tam warstwy pochodzenia biologicznego. Ostatecznie oceniono zdolności biosensora do detekcji immunoglobuliny G (IgG) w bardzo niskich stężeniach w surowicy. Osiągnięto rekordowy limit detekcji wynoszący 70 aM.

Światłowodowy biosensor zdolny do uzyskania niezwykle niskiego limitu detekcji w zakresie attomolowym, nie tylko stanowi znaczące osiągnięcie techniczne, ale również może być postrzegany jako obiecujące narzędzie do wczesnej diagnostyki chorobowej.

Artykuł:

Advanced Science

Rok wydania:

Autorzy z PW:

Dariusz Burnat, Monika Janik, Norbert Kwietniewski, Emil Pituła, Mateusz Jakub Śmietana

Thin-film-based optical fiber interferometric sensor on the fiber tip for endovascular surgical procedures

Cel: Chirurgia wewnątrznaczyniowa wymaga precyzyjnego pomiaru parametrów, takich jak: ciśnienie, temperatura i obecność wybranych markerów. Analiza markerów pozwala na monitorowanie reakcji tkanek w czasie rzeczywistym i zapewnia skuteczność celowanych procedur terapeutycznych. Jednak dostępność małych czujników na końcówkach przyrządów chirurgicznych, które mogą być precyzyjnie stosowane, np. podczas nawigacji w świetle tętniaka, jest ograniczona. Dzięki możliwościom analizy odpowiedzi w czasie rzeczywistym, elastyczności i biokompatybilności, czujniki światłowodowe (OFS) mogą stanowić obiecujące rozwiązanie tego problemu. W niniejszym pracy sprawdzono możliwość zastosowania OFS w scenariuszach procedur chirurgii wewnątrznaczyniowej.

Metody: Czujnik oparto na jednomodowym włóknie światłowodu szklanego ze strukturą interferometryczną w postaci cienkich warstwy wykonanych na czole włókna. Materiały cienkowarstwowe mogą być dostosowane do wykrywania różnych parametrów fizycznych, a po funkcjonalizacji – także specyficznych analitów. Materiały zastosowane w tym czujniku to cienkie tlenki metali nanoszone metodą rozpylania magnetronowego. Do symulacji środowiska wewnątrznaczyniowego zastosowano pełnowymiarowy model naczyń krwionośnych wydrukowany w technologii 3D.

Wyniki: Eksperymenty wykazały wysoką mechaniczną wytrzymałość opracowanego podejścia – czujnik zachował funkcjonalność podczas manewrowania w modelu wewnątrznaczyniowym. Cienkowarstwowa końcówka czujnika pozostała nienaruszona i działała prawidłowo, zapewniając spójne i stabilne odczyty. Ponadto światłowód wykazał wystarczającą elastyczność, tj. podczas badań nie zaobserwowano istotnych strat wynikających z gięcia. Dodatkowo oceniono funkcjonalność czujnika w próbkach surowicy bydlęcej. Czujnik działał dobrze w surowicy, a wyniki sugerują, że użycie surowicy o niskim stężeniu może zmniejszyć niespecyficzne interakcje powierzchniowe.

Wnioski: Ogólnie rzecz biorąc, opracowany system OFS oferuje obiecujące rozwiązanie dla chirurgii wewnątrznaczyniowej i innych zastosowań biomedycznych, umożliwiając precyzyjną analizę wybranych interakcji na powierzchni.

Znaczenie: Nasze badanie jako pierwsze demonstruje użyteczność w procedurach wewnątrznaczyniowych cienkowarstwowych interferometrycznych czujników światłowodowych na powierzchni czołowej światłowodu do bezznacznikowych pomiarów biosensorycznych.

Artykuł:

IEEE Transactions on Biomedical Engineering

Rok wydania:

Autorzy z PW:

Norbert Kwietniewski, Agnieszka Martychowiec, Mateusz Jakub Śmietana 

Energy-Efficient Resource Allocation of Wireless Energy Transfer for the Internet of Everything in Digital Twins

Praca ma na celu poprawę stabilności bezprzewodowego przesyłu energii (WET, ang. Wireless Energy Transfer) w Internecie Rzeczy (IoT), a przez to wydłużenie czasu pracy urządzeń bezprzewodowych. W oparciu o środowisko symulacyjne cyfrowych bliźniaków (DTs, ang. Digital Twins), pokazujemy, jak zoptymalizować efektywność energetyczną systemów MIMO (ang. Multiple-Input Multiple-Output) na dużą skalę, działających w technologii WET. Duża, rozproszona macierz antenowa została zastosowana w sieci czujników bezprzewodowych. Technologia MIMO umożliwia tworzenie wąskich wiązek sygnału, co pozwala systemowi na ograniczenie zakłóceń.

Poprawa efektywności energetycznej w naszym systemie MIMO opiera się na wyborze anteny lub anten do przesyłu, dokładniejszym planowaniu zadań oraz optymalnym doborze parametrów. Wyniki symulacji pokazują, że system osiąga najlepszą wydajność przy maksymalnej mocy nadawczej wynoszącej 19 dBm. Całkowite zużycie energii w proponowanym algorytmie przydziału zasobów jest tylko o około 9% wyższe niż w przypadku algorytmu minimalizacji mocy. Dopuszczając różne wartości mocy przesyłanej przez kanał, liczba iteracji potrzebnych do zbieżności proponowanego algorytmu nie przekracza czterech. Zmiany liczby urządzeń w systemach MIMO nie wpływa na zdolność algorytmu do osiągnięcia zbieżności.

Po wprowadzeniu mechanizmu wyboru anteny, średnia moc energii odbieranej przez użytkownika znacząco się zwiększa w porównaniu do przypadku wykorzystania wyłącznie dużej, rozproszonej macierzy antenowej. Wyniki badań mogą stanowić punkt odniesienia dla problemów optymalizacji efektywności energetycznej w systemach MIMO na dużą skalę, pracujących w warunkach WET w środowisku IoT opartym na cyfrowych bliźniakach.

Artykuł:

IEEE Communications Magazine

Rok wydania:

Autorzy z PW:

Robert Marek Nowak 

Glass capillary systems for micro-volume fluorometry

Kapilarna fluorymetria może być obiecującą alternatywą dla metod wykorzystujących kuwety, umożliwiając pomiary przy użyciu niewielkich objętości próbek, jednocześnie zmniejszając zużycie analizowanego materiału oraz ilość generowanych odpadów. W niniejszej pracy, wykorzystując białko zielonej fluorescencji (GFP) jako analit, porównano wydajność trzech typów szklanych systemów pomiarowych opartych na: włóknach antyrezonansowych, kapilarach oraz standardowych kuwetach.

Spośród badanych systemów, w ocenie objętości analitu oraz intensywności fluorescencji, kapilara mieszcząca 2,9 μL została uznana za optymalny wybór. Układ pomiarowy oparty na kapilarze został dodatkowo zoptymalizowany pod kątem zwiększenia czułości pomiaru poprzez dostosowanie pozycji wiązki lasera wzbudzającej fluorescencję oraz optymalizację kształtu kapilary. Dzięki tym ulepszeniom, uzyskano znaczącą redukcję objętości próbki o 85% w porównaniu do wcześniejszych badań wykorzystujących kapilarną fluorymetrię, co podkreśla istotny wkład tej metody w oszczędność materiałów.

Opracowany system umożliwił uzyskanie dla GFP granicy detekcji na poziomie 26 μg/mL (1,01 nM) oraz rozdzielczości wynoszącej 3,5 μg/mL. Dzięki niskim kosztom oraz możliwości ponownego użycia, kapilarna fluorymetria stanowi atrakcyjną alternatywę dla tradycyjnej fluorymetrii opartej na kuwetach, oferując możliwość analizy małych objętościach.

Artykuł:

Measurement

Rok wydania:

Autorzy z PW:

Monika Janik, Marcin Olszewski, Emil Pituła, Jakub Hubert Sikora, Mateusz Jakub Śmietana 

Ambient air pollution and risk of hospital admission due to acute and chronic coronary syndromes: a time-stratified case-crossover study in the 3 largest urban agglomerations in Poland

Jakość powietrza w Polsce, szczególnie w dużych miastach, od lat stanowi poważny problem zdrowotny. Badania wskazują, że krótkotrwałe narażenie na zanieczyszczenia powietrza, takie jak pyły zawieszone PM10 i PM2,5, oraz dwutlenek azotu (NO2), może mieć istotny wpływ na ryzyko wystąpienia chorób sercowo-naczyniowych, w tym choroby niedokrwiennej serca (ChNS). 

W ramach badania przeanalizowano dane dotyczące hospitalizacji w trzech największych aglomeracjach miejskich w Polsce (Warszawa, Kraków, Trójmiasto) w latach 2012-2017. Łącznie zanotowano 88 467 przypadków przyjęć do szpitala z powodu przewlekłych postaci ChNS oraz 35 403 przyjęcia z powodu ostrych zespołów wieńcowych (OZW). W analizie wykorzystano modelowanie z zastosowaniem modeli DLNM (distributed lag nonlinear model), które pozwoliło na określenie związku między ekspozycją na zanieczyszczenia powietrza a ryzykiem hospitalizacji w okresie trzech dni od kontaktu z rozważanymi zanieczyszczeniami. 

Wyniki badania są następujące: 

  1. PM10: Wzrost ryzyka hospitalizacji z powodu przewlekłych zespołów wieńcowych o 0,7% na każde zwiększenie stężenia pyłu PM10 o 10 µg/m³ (wskaźnik skumulowany 1,007, przedział ufności 95%: 1,002–1,012). Dla ostrych zespołów wieńcowych ryzyko wzrastało o 0,9% (1,009 [1,002–1,015]). 
  2. PM2,5: Wzrost ryzyka przewlekłych zespołów wieńcowych o 0,8% (1,008 [1,001–1,014]) oraz ostrych zespołów wieńcowych o 0,9% (1,009 [1,001–1,018]). 
  3. NO2: W przypadku przewlekłych zespołów wieńcowych ryzyko wzrastało o 3,7% na każde zwiększenie stężenia dwutlenku azotu o 10 µg/m³ (1,037 [1,026–1,047]). Dla ostrych zespołów wieńcowych zależność była mniej wyraźna. 
  4. SO2: Związek między ekspozycją na dwutlenek siarki a ryzykiem hospitalizacji był mniej istotny (1,032 [0,998–1,067] dla ostrych zespołów wieńcowych). 

Zebrane dane potwierdzają, że zanieczyszczenia powietrza mają bezpośredni i mierzalny wpływ na zdrowie publiczne, szczególnie w kontekście chorób sercowo-naczyniowych. Wyniki te dodatkowo podkreślają konieczność wprowadzenia skutecznych działań na rzecz poprawy jakości powietrza w Polsce, co mogłoby zredukować liczbę hospitalizacji i poprawić jakość życia mieszkańców. 

Artykuł:

Polskie Archiwum Medycyny Wewnętrznej

Rok wydania:

Autorzy z PW:

Artur Jerzy Badyda, Piotr Kępa 

Sources, levels, and determinants of indoor air pollutants in Europe: A systematic review

Czyste powietrze jest niezbędne do życia, a jakość powietrza w pomieszczeniach jest czynnikiem determinującym zdrowie, ponieważ ludzie spędzają większość swojego codziennego czasu w zamkniętych przestrzeniach. Celem niniejszej publikacji było systematyczne przeanalizowanie dostępnych danych dotyczących źródeł, uwarunkowań i stężeń zanieczyszczeń powietrza wewnętrznego w ramach zestawu scenariuszy badanych w projekcie K-HEALTHinAIR. W tym celu przeprowadzono przegląd systematyczny literatury naukowej opublikowanej w latach 2013–2023, obejmujący różne typy pomieszczeń (szkoły, domy, szpitale, sale wykładowe, domy opieki, transport publiczny i stołówki) na terenie Europy, w których analizowano źródła i determinanty stężeń zanieczyszczeń powietrza wewnętrznego. Po dwuetapowej selekcji na poziomie streszczeń i pełnych tekstów, do ekstrakcji danych włączono 148 artykułów. Dla cząstek stałych, dwutlenku węgla i lotnych związków organicznych zidentyfikowano kilka źródeł emisji (obecność ludzi i ich aktywność, resuspensję cząstek, środki czyszczące, dezynfektanty, zajęcia plastyczne, gotowanie oraz palenie tytoniu), przy czym wentylacja, liczba osób przebywających w pomieszczeniu oraz charakterystyka budynku uznane zostały za istotne determinanty. Przegląd ten umożliwił również omówienie działań, które są już wdrażane lub powinny zostać podjęte w przyszłości w celu zapobiegania i kontroli obecności zanieczyszczeń powietrza wewnętrznego.

Artykuł:

Science of the Total Environment

Rok wydania:

Autorzy z PW:

Katarzyna Anna Affek, Artur Jerzy Badyda, Nina Doskocz, Piotr Kępa 

Recursive Neyman algorithm for optimum sample allocation under box constraints on sample sizes in strata

Alokacja optymalna próby w warstwowym schemacie próbkowania jest jednym z podstawowych zagadnień w badaniach reprezentacyjnych. Polega ona na takim podziale zadanej całkowitej liczebności próby pomiędzy warstwy, aby przy założonym schemacie losowania w warstwach wariancja tzw. warstwowego π estymatora była minimalna. W niniejszej pracy rozważamy problem alokacji optymalnej w obecności warunków nałożonych jednocześnie na minimalną i maksymalną liczebność próbek w warstwach. Rozważymy funkcję wariancji o ogólnej postaci, która w szczególności obejmuje przypadek prostego losowania bez zwracania w warstwach. Celem artykułu jest po pierwsze – wyprowadzenie (z wykorzystaniem warunków Karusha-Kuhna-Tuckera) ogólnej postaci rozwiązania optymalnego, czyli tzw. warunków optymalności. Po drugie – na podstawie uzyskanych warunków optymalności, opracujemy efektywny algorytm rekurencyjny o nazwie RNABOX, który rozwiązuje analizowany problem alokacji optymalnej. Algorytm RNABOX można traktować jako uogólnienie klasycznego rekurencyjnego algorytmu Neymana, powszechnie stosowanego do wyznaczania optymalnej alokacji próby w sytuacjach, gdy ograniczenia dotyczą tylko maksymalnych liczebności próbek w warstwach. Algorytm RNABOX został zaimplementowany w języku R i stanowi część pakietu stratallo, dostępnego w repozytorium Comprehensive R Archive Network (CRAN).

Artykuł:

Survey Methodology

Rok wydania:

Autorzy z PW:

Jacek Wesołowski, Wojciech Wójciak 

Dyscyplina: