Federated Learning – Wikipedia

before-content-x4

L ‘ Uczenie się federacji (znany również jako uczenie się współpracy ) to automatyczna technika uczenia się, która pozwala wyszkolić algorytm za pomocą zdecentralizowanych urządzeń lub serwerów, które utrzymują dane, bez konieczności wymiany danych. Podejście to przeciwstawia się tradycyjnym scentralizowanym automatycznym technikom uczenia się, w których dane są ładowane na serwer lub bardziej tradycyjne zdecentralizowane metody, które przyjmują, że dane lokalne są rozpowszechniane identycznie.

after-content-x4

Federated Learning pozwala różnym uczestnikom zbudować model wspólnego i solidnego automatycznego uczenia się, bez wymiany żadnych danych. Korzystanie z tej techniki pozwala poradzić sobie z krytycznymi problemami, takimi jak prawa ochrony, bezpieczeństwa i dostępu do danych oraz wykorzystanie heterogenicznych danych. Główne zastosowania uczenia się federacji obejmują różne dziedziny, takie jak obrona, telekomunikacja, IoT i farmaceutyka.

Federated Learning ma na celu dostarczenie metod szkolenia automatycznego modelu uczenia się, na przykład głębokich sieci neuronowych, wykorzystując dane lokalne, które są dystrybuowane na wielu węzłach bez potrzeby wymiany tego samego. Ogólna zasada polega na badaniu przez modele lokalne z wykorzystaniem danych dostępnych lokalnie w węzłach oraz poprzez wymianę parametrów (na przykład wag głębokiej sieci neuronowej) generuje model globalny.
Główna różnica między uczeniem się federowanym a rozproszonym uczeniem się polega na hipotezach sformułowanych na właściwościach lokalnych zestawów danych [Pierwszy] Ponieważ uczenie się rozproszone narodziło się z zamiarem równoległości do siły obliczeniowej, podczas gdy podejście federacyjne ma szkolenie modeli heterogenicznych danych jako jej zamiaru. Chociaż podejście rozproszone ma jako cel uczenie się pojedynczego modelu na wielu serwerach, dane przechowywane w lokalnych węzłach są uważane za identycznie rozłożone i mają około tego samego rozmiaru dla wszystkich węzłów. Żadna z tych hipotez nie jest tworzona do nauki federacyjnej. W rzeczywistości dane dostępne dla węzłów są na ogół heterogeniczne i mają wymiary, które mogą również różnić się od wielu rzędów wielkości. Ponadto węzły zaangażowane w federacyjne uczenie się mogą ponieść rozłączenia lub usterki, głównie ze względu na zastosowane środki komunikacji (na przykład Wi-Fi) lub na baterii (na przykład smartfonów lub urządzeń IoT), podczas gdy węzły rozważane w szkoleniu są rozłożone w szkoleniu głównie centra przetwarzania danych o bardzo wysokiej pojemności obliczeniowej i mogą korzystać z połączenia o wysokiej prędkości . [2]

Scentralizowane uczenie się federacji [[[ zmiana |. Modifica Wikitesto ]

W scentralizowanych federowanych metod uczenia się centralny serwer odpowiada za zarządzanie różnymi krokami dla używanych algorytmów i koordynację węzłów uczestniczących w procesie uczenia się. Serwer ma obowiązek wybierać węzły na początku procedury i ma zadanie agregowania modeli otrzymanych z węzłów podczas fazy uczenia się. Biorąc pod uwagę, że wszystkie uczestniczące węzły muszą wysłać modele do jednego jednostki, serwer może stanowić formę spowolnienia dla systemu. [2]

Zdecentralizowana nauka federacyjna [[[ zmiana |. Modifica Wikitesto ]

W zdecentralizowanych federacyjnych metodach uczenia się węzły mają zdolność koordynowania w celu uzyskania modelu globalnego. Techniki te pozwalają rozwiązać problem scentralizowanych podejść, ponieważ węzły są w stanie wymienić aktualizacje modeli bez koordynacji serwera centralnego. Niemniej jednak konkretna konfiguracja topologii sieci może wpłynąć na wydajność procesu uczenia się. [2]

Federated learning general process in central orchestrator setup
Ogólny proces uczenia się federowany w scentralizowanej konfiguracji

Iteracyjna nauka [[[ zmiana |. Modifica Wikitesto ]

Aby zapewnić dobre wykonanie działań w celu uzyskania globalnego modelu udostępnionego przez wszystkie węzły, uczenie się federacyjne opiera się na iteracyjnym procesie podzielonym na zestaw atomowy interakcji klient-serwer znany jako runda federacyjna. W każdym cyklu tego procesu bieżący stan modelu jest przesyłany do uczestniczących węzłów, węzły węzły aktualizują model za pomocą dostępnych danych lokalnych i tworzą serię potencjalnych aktualizacji modelu. Wreszcie model globalny jest aktualizowany przez agregowanie aktualizacji otrzymanych z węzłów. [2]

W poniższej metodologii zakłada się, że proces uczenia się uwzględnia interakcję centralnego serwera, który zapewnia polecenia węzłom w operacjach, które mają zostać przeprowadzone. Jednak zastosowanie metodologii, które nie wymagają zastosowania centralnej jednostki, takich jak podejścia peer-to-peer, zapewnia te same wyniki poprzez zastosowanie metodologii plotek [3] lub zgoda. [4]

after-content-x4

Biorąc pod uwagę, że runda federacyjna składa się z iteracji procesu uczenia się, procedurę szkolenia federacyjnego można opisać w następujący sposób: [5]

  1. Inicjalizacja : W oparciu o dane wejściowe dostarczone przez serwer, automatyczny model uczenia się, na przykład regresja liniowa, sieć neuronowa lub wzmocnienie, jest wybrany do nauki lokalnych węzłów i jest inicjowany. Po zakończeniu wyboru modelu i inicjalizacji tego samego węzły są aktywowane i czekają na dalsze instrukcje z serwera.
  2. Wybór węzłów : Frakcja dostępnych węzłów jest wybierana w celu rozpoczęcia fazy uczenia się danych lokalnych. Wybrane węzły nabywają bieżący model z serwera, podczas gdy inne czekają na następną rundę.
  3. Konfiguracja : Serwer komunikuje się z wybranymi węzłami, aby rozpocząć uczenie się przy użyciu ich danych lokalnych w trybie domyślnym (na przykład przy użyciu mini-partii do obliczenia gradientu).
  4. Komunikacja : Wybrane węzły wysyłają swoje modele do serwera w celu agregacji. Serwer atakuje modele otrzymane w oparciu o wybrany algorytm na początku i zwraca wynik agregacji do węzłów. Ponadto serwer zarządza wszelkimi rozłączonymi błędami lub węzłami. W tym momencie rozpocznie się następna runda, a proces rozpoczyna się od fazy wyboru węzłów.
  5. Zakończenie : Po osiągnięciu kryterium zakończenia, na przykład po osiągnięciu maksymalnej liczby iteracji lub dokładność modelu jest większa niż określony próg, serwer agreguje najnowsze aktualizacje dostarczone przez węzły i buduje model globalny.

Uwzględniona wcześniej procedura zakłada, że ​​modele są aktualizowane synchronicznie. Ostatnie osiągnięcia w nauce federacyjnej zaczęły wprowadzać mechanizmy aktualizacji asynchronicznej. W porównaniu z podejściami synchronicznymi, w których modele lokalne są wymieniane po wykonaniu obliczeń na wszystkich warstwach sieci neuronowej, asynchroniczne wykorzystują właściwości sieci neuronowych do wysyłania aktualizacji, gdy obliczenia na określonej warstwie są ukończone. Te techniki są powszechnie nazywane dzielonym uczeniem się [6] [7] Można je zastosować zarówno podczas fazy uczenia się, jak i wnioskowania niezależnie, jeżeli uznano go za scentralizowane lub zdecentralizowane podejście do uczenia się federacji. [2]

Non-I.I.D. [[[ zmiana |. Modifica Wikitesto ]

W większości przypadków założenie posiadania niezależnych i identycznie rozproszonych danych dostępnych dla lokalnych węzłów nie dotyczy federowanych konfiguracji uczenia się. W tych przypadkach wydajność procesu szkoleniowego może się znacznie różnić w zależności od nierównowagi danych lokalnych, a także szczególnego rozkładu prawdopodobieństwa przykładów szkolenia (tj. Charakterystyki i etykiet) przechowywanych w lokalnych węzłach. Aby pogłębić skutki danych rozmieszczonych w sposób, w jaki nie I.I.D., następujący opis rozważa główne kategorie przedstawione w postępach w artykule i otwarte problemy w nauce federacyjnej, Peter Kairouz i Al. 2019.

Opis tych konkretnych rodzajów danych opiera się na analizie wspólnego prawdopodobieństwa cech i etykiet dostępnych dla każdego węzła lokalnego. Pozwala to na rozpad każdego wkładu w oparciu o konkretny rozkład dostępny dla lokalnych węzłów. Główne kategorie można podsumować w następujący sposób: [2]

  • Zmienna zmiana : Lokalne węzły mogą przechowywać dane, które mają różne rozkłady statystyczne niż inne węzły. Ten warunek występuje na przykład w zestawach danych do przetwarzania języka naturalnego, w którym różne osoby mogą pisać tę samą literę o różnych szerokościach i/lub skłonnościach.
  • Przemieszczenie prawdopodobieństwa do uprzedniego I: Lokalne węzły mogą przechowywać etykiety, które mają różne rozkłady statystyczne niż inne węzły. Może się to zdarzyć, jeśli zestawy danych są regionalne i/lub demograficzne podzielone. Na przykład zestawy danych zawierające obrazy zwierząt różnią się znacznie w zależności od kraju.
  • Ruch koncepcji ( te same etykiety, ale różne cechy ): Lokalne węzły mogą dzielić te same etykiety, ale niektóre z nich odpowiadają różnym cechom dla różnych węzłów. Na przykład obrazy przedstawiające określony obiekt mogą się różnić w zależności od warunków pogodowych, w których zostały uchwycone.
  • Ruch koncepcji ( Te same cechy, ale różne etykiety ): Lokalne węzły mogą mieć te same cechy, ale niektóre z nich odpowiadają różnym etykietom dla różnych węzłów. Na przykład w opracowaniu języka naturalnego analiza uczuć może wywoływać różne uczucia, nawet jeśli zaobserwowano ten sam tekst.
  • Brak równowagi : Rozmiar danych przechowywanych w węzłach może znacznie się różnić.

Inne deskryptory danych nie I.I.D. Weź pod uwagę dynamiczną zmianę topologii sieci, [8] Z powodu awarii lub niekwalifikowalności lokalnych węzłów podczas federalnego procesu uczenia się lub ruchów zestawów danych, w których węzły uczestniczące w fazie szkoleniowej do nauki modelu globalnego mogą nie być odpowiednie podczas wnioskowania z powodu niewystarczających możliwości obliczeniowych. Przekłada się to na różnicę między statystykami danych szkoleniowych i wnioskowania. [2]

Topologia sieci [[[ zmiana |. Modifica Wikitesto ]

Sposób, w jaki lokalne wyniki statystyczne są pogrupowane, a sposób, w jaki węzły się ze sobą komunikują, może się zmienić w porównaniu z scentralizowanym modelem wyjaśnionym w poprzednim rozdziale. Prowadzi to do różnych podejść do uczenia się federacji: na przykład przypadek, w którym serwer centralny nie jest obecny lub komunikacji stochastycznej. [9]

W szczególności sieci dystrybuowane bez koordynatora centralnego stanowią ważny wariant. W takim przypadku nie ma centralnego serwera, który wysyła żądania do lokalnych węzłów i który atakuje modele otrzymane z węzłów. Każdy węzeł wysyła własny model do kilku losowo wybranych węzłów, [dziesięć] którzy agregują wyniki lokalnie. Ogranicza to liczbę transakcji, czasami skracając czas uczenia się i koszty przetwarzania. [dziesięć]

Federowane parametry uczenia się [[[ zmiana |. Modifica Wikitesto ]

Po wybraniu topologii sieci Nodi możliwe jest kontrolowanie różnych parametrów procesu uczenia się federalnego (w przeciwieństwie do hiperparametrów modelu automatycznego uczenia się) w celu optymalizacji uczenia się:

  • Liczba cykli do nauki federacyjnej:
  • Całkowita liczba węzłów używanych podczas procesu uczenia się:
  • Ułamek węzłów używanych na każdej iteracji dla każdego węzła:
  • Rozmiar liczby lokalnych przykładów używanych na każdej iteracji w procesie uczenia się:

Oprócz już wymienionych, dalsze parametry, takie jak:

  • Liczba iteracji lokalnego uczenia się węzła:
  • Lokalny wskaźnik uczenia się:

Parametry te muszą być zoptymalizowane zgodnie z ograniczeniami aplikacji automatycznej uczenia się (na przykład dostępnej mocy obliczeniowej, dostępnej pamięci, przepustowości). Na przykład wybór ograniczonej frakcji stokastycznie

C {DisplayStyle C}

Węzły dla każdej iteracji można zmniejszyć przez koszty przetwarzania, a nadmierną adaptację modelu można zapobiec, w taki sam sposób, jak zejście gradientu stochastycznego może zmniejszyć nadmierną adaptację.

W tej sekcji wystawa artykułu oszczędna uczenie się głębokich sieci z zdecentralizowanych danych, H. Brendan McMahan i Al. 2017 jest brany pod uwagę.

Aby opisać różne federacyjne metody uczenia się, wprowadzono następujące zapisy:

Federowane stochastyczne zejście gradientu (FedsGD) [[[ zmiana |. Modifica Wikitesto ]

Szkolenie w zakresie głębokiego uczenia się opiera się głównie na wariantach stokastycznego pochodzenia gradientu, w których gradienty są obliczane na losowym podzbiorze dostępnych danych, a następnie wykorzystywane do wykonania przejścia w algorytmie zejścia gradientu.

IL Federated Stochastic Gradient Descent [11] Jest to bezpośrednia transpozycja tego algorytmu do podejścia federowanego, ale stosowanie losowej frakcji

C {DisplayStyle C}

Węzły i użycie wszystkich danych w rozważanym węźle. Gradienty pośredniczą serwer proporcjonalny do liczby próbek w każdym węźle i wykorzystywane do wykonywania etapu zejścia gradientu.

Federowane uśrednianie [[[ zmiana |. Modifica Wikitesto ]

IL Federated Uśrednianie (FedAVG) [dwunasty] Jest to uogólnienie FedSGD, które pozwala lokalnym węzłom wykonywać więcej niż jedną aktualizację danych lokalnych, a zaktualizowane wagi są wymieniane zamiast gradientów. Logika tej uogólnienia polega na tym, że w FedSGD, jeśli wszystkie lokalne węzły zaczynają się od tej samej inicjalizacji, średnia gradientów jest ściśle równoważna średniej samych wag. Ponadto średnia skalibrowane ciężary z tej samej inicjalizacji niekoniecznie uszkadza wydajność uzyskanego przeciętnego modelu.

Uczenie się federacyjne wymaga częstej komunikacji między węzłami podczas procesu uczenia się. Dlatego wymaga nie tylko wystarczającej mocy obliczeniowej i pamięci, ale także połączeń o wysokiej szerokości, aby móc wymieniać parametry modelu automatycznego uczenia się. Jednak technologia pozwala również uniknąć komunikacji danych, co może wymagać znacznych zasobów przed rozpoczęciem automatycznego uczenia się w scentralizowanej wersji. Jednak urządzenia zwykle stosowane w uczeniu się federacji mają ograniczone umiejętności komunikacyjne, na przykład urządzenia IoT lub smartfony są ogólnie połączone z sieciami Wi-Fi, dlatego nawet jeśli modele są ogólnie tańsze w przesyłaniu w porównaniu z surowymi danymi, uczenie się federowane, federowane uczenie się Mechanizmy mogą nie być odpowiednie w ich ogólnej formie.

Uczenie się federowane wprowadza różne ograniczenia statystyczne:

  • Heterogeniczność między różnymi lokalnymi zestawami danych: każdy węzeł może przedstawiać odchylenia w porównaniu z populacją ogólną, a wielkość zestawów danych może się znacznie różnić;
  • Heterogeniczność czasowa: Rozkład danych przechowywanych przez węzły może się różnić w czasie;
  • Interoperacyjność zestawu danych każdego węzła jest warunek wstępny;
  • Zestaw danych każdego węzła może żądać regularnych zabiegów;
  • Zastosowanie mechanizmów przyciemniających danych wykorzystywanych do szkolenia może pozwolić złośliwym użytkownikom wstrzykiwać backdoor do modelu globalnego; [13]
  • Brak dostępu do danych globalnych do szkolenia utrudnia zidentyfikowanie niechcianych odchyleń, które mogą wpływać na fazę uczenia się, na przykład wiek, płeć, orientacja seksualna;
  • Częściowa lub całkowita utrata aktualizacji modelu z powodu błędów węzłów może wpływać na model globalny

Prywatność według projektu [[[ zmiana |. Modifica Wikitesto ]

Główną zaletą stosowania podejść federacyjnych w automatycznym uczeniu się jest gwarancja poufności lub tajemnicy danych. W rzeczywistości żadne dane lokalne nie są ładowane zewnętrznie, połączone ani wymieniane. Ponieważ cała baza danych jest podzielona na segmenty w lokalnych bitach, utrudnia to manipulowanie.

Dzięki federowanemu uczeniu się wymieniane są tylko automatyczne parametry uczenia się. Ponadto parametry te można zaszyfrować przed udostępnieniem między cyklami uczenia się w celu rozszerzenia prywatności i wzorcami szyfrowania omomorficznego do bezpośredniego wykonywania obliczeń zaszyfrowanych danych bez ich odszyfrowania. Pomimo tych środków ochronnych parametry mogą nadal tworzyć widoczne informacje powiązane z danymi podstawowymi, na przykład poprzez przeprowadzanie wielu konkretnych zapytań w określonych zestawach danych. Zdolność do kwestionowania węzłów jest zatem ważnym punktem uwagi, które można rozwiązać za pomocą prywatności różnicowej lub bezpiecznej agregacji. [14]

Dostosowywanie [[[ zmiana |. Modifica Wikitesto ]

Model generowany podczas fazy uczenia się zapewnia zrozumienie globalnego modelu wyuczonego z węzłów. Jeśli jednak uczestniczący węzeł chce uczyć się na globalnych wzorcach, ale także dostosować wyniki do jego szczególnego stanu, metodologię uczenia się federowanej można dostosować do generowania dwóch modeli jednocześnie w ramach uczenia się wielozadaniowego. Ponadto techniki grupowania [15] Można je zastosować do agregowanych węzłów, które dzielą pewne podobieństwa po zakończeniu procesu uczenia się. Umożliwia to uogólnienie modeli wyuczonych z węzłów zgodnie z ich lokalnymi danymi.

W przypadku głębokich sieci neuronowych można podzielić się niektórymi poziomami między różnymi węzłami i zachować niektóre w każdym lokalnym węźle. Zasadniczo pierwsze poziomy, które wykonują ogólne rozpoznanie modelu, są udostępniane i szkolone przy użyciu wszystkich zestawów danych. Najnowsze warstwy pozostaną jednak w każdym lokalnym węźle i zostaną przeszkolone tylko na zestawie danych węzła lokalnego. [16]

Prawne aspekty nauki federacji [[[ zmiana |. Modifica Wikitesto ]

Zachodnie obrazy prawne są coraz bardziej ochrona i identyfikowalność danych. Raport z Białego Domu 2012 [17] Zalecił zastosowanie zasady minimalizacji danych, o których wspomniano w Europejskim RODO. [18] W niektórych przypadkach niemożliwe jest przesyłanie danych z jednego kraju do drugiego (np. Dane genomowe), jednak czasami międzynarodowe konsorcjum są niezbędne do postępu naukowego. W takich przypadkach Federated Learning oferuje rozwiązania tworzenia globalnego modelu zgodnie z ograniczeniami bezpieczeństwa.

Uczenie się federowane zaczęło się pojawiać jako ważny temat badawczy w 2015 r. [Pierwszy] A w 2016 roku [19] Z pierwszymi publikacjami na temat federowanego uśredniania w dziedzinie telekomunikacji. Innym ważnym aspektem badań jest zmniejszenie komunikacji podczas procesu uczenia się federacji. W 2017 i 2018 r. Publikacje podkreśliły opracowanie strategii alokacji zasobów, w szczególności w celu zmniejszenia wymagań [20] komunikacji [dwunasty] między węzłami z algorytmami plotek [21] , a także charakterystyka solidności dla zróżnicowanych ataków na prywatność. [22] Inne działania badawcze koncentrują się na zmniejszeniu przepustowości podczas szkolenia metodami [20] ograniczonego i kwantyzacji, w których automatyczne modele uczenia się są rozproszone i/lub ściśnięte przed udostępnieniem innym węzłom. Ponadto niektóre federacyjne techniki uczenia się zaczynają uwzględniać rzeczywiste kanały propagacji [23] Ponieważ idealne kanały były używane w poprzednich implementacjach.

Uczenie się federowane jest ogólnie stosowane, gdy poszczególne podmioty muszą tworzyć modele z zestawów danych większych niż ich, ale nie mogą udostępniać danych innym (na przykład z powodów prawnych, strategicznych lub ekonomicznych). Jednak technologia wymaga dobrych połączeń między lokalnymi serwerami a minimalną mocą obliczeniową dla każdego węzła. [2]

Google Gboard [[[ zmiana |. Modifica Wikitesto ]

Jedną z pierwszych aplikacji rozważanych w dziedzinie nauki federowanej była Google Gboard, zaimplementowana przez Google [5] [24] do użytku w predykcyjnych klawiaturach. Pod silną presją regulacyjną niemożliwe było załadowanie wiadomości tekstowych wszystkich użytkowników w celu wyszkolenia algorytmu predykcyjnego w celu przewidywania słów. Ponadto taki proces ujawniłby zbyt wiele danych użytkownika na ataki. Pomimo pamięci, a czasem ograniczonej mocy przetwarzania smartfonów, Google stworzył przekonujący przypadek użycia przez swoją płytę G, jak przedstawiono podczas zdarzenia Google I/O w 2019 roku. [25]

Federacja uczenia się w opiece zdrowotnej [[[ zmiana |. Modifica Wikitesto ]

W badaniach farmaceutycznych realne dane są wykorzystywane do tworzenia leków i ramion syntetycznych. Generowanie wiedzy na temat złożonych problemów biologicznych wymaga gromadzenia wielu danych różnych instytucji medycznych, chętnych do utrzymania kontroli nad ich wrażliwymi pacjentami. Federated Learning pozwala badaczom tworzyć modele predykcyjne na wielu wrażliwych danych przejrzystych bez konieczności udostępniania. [26]

Systemy transportowe: autonomiczne pojazdy jazdy [[[ zmiana |. Modifica Wikitesto ]

Autonomiczne samochody jazdy wykorzystują do pracy wiele automatycznych technologii uczenia się: sztuczna wizja analizy przeszkód, automatyczne uczenie się dostosowywania swojego rytmu do środowiska (na przykład do nieprawidłowości drogi). Ze względu na dużą potencjalną liczbę autonomicznych samochodów napędzających i potrzebę szybkiego reagowania na sytuacje krytyczne, scentralizowane tradycyjne podejście może powodować zagrożenia bezpieczeństwa. Uczenie się federowane może reprezentować rozwiązanie ograniczające objętość transferu danych i przyspieszyć procesy uczenia się. [27]

Przemysł 4.0: Inteligentne systemy produkcyjne [[[ zmiana |. Modifica Wikitesto ]

W branży 4.0 przyjęcie technik automatycznego uczenia się jest powszechne [28] Aby poprawić wydajność i skuteczność procesów przemysłowych, gwarantując wysoki poziom bezpieczeństwa. Jednak poufność poufnych danych dla branż i firm produkcyjnych ma fundamentalne znaczenie. Do tych aplikacji można zastosować algorytmy uczenia się federacji, ponieważ pozwalają one nie ujawnić żadnych poufnych danych. [19]

Wraz z rosnącym zainteresowaniem wzbudzonym federowanymi badaniami uczenia się, wiele narzędzi programowych zostało udostępnionych do wdrażania różnych konfiguracji uczenia się federacji:

  • Tensorflow Federated: [29] Jest to oprogramowanie typu open source, które pozwala każdemu użytkownikowi ocenić automatyczne modele uczenia się na rozproszonych danych. Zapewnia różne funkcje pszczół w celu symulacji federowanych architektur uczenia się i definiowania określonych obliczeń federowanych (np. Różne warianty uczenia się federacji).
  • Pysyft: [30] Jest to biblioteka Python, która zapewnia narzędzia do symulacji mechanizmów ochrony prywatności w federowanych technikach uczenia się. Opiera się na dobrze znanym pakiecie Pytorch i pozwala uwzględnić algorytmy federacyjne dla różnicowych systemów prywatności i innych mechanizmów bezpieczeństwa, na przykład Secure i omomorficzne szyfrowanie obliczeń wielopartyjnych.
  • Liść: [trzydziesty pierwszy] Jest to ramy stosowane w analizie porównawczej automatycznych modeli uczenia się w algorytmach uczenia się federowanych. Obsługuje wiele rodzajów automatycznego uczenia się, na przykład uczenie się wielozadaniowości, meta-learning i uczenie się online.
  1. ^ A B Optymalizacja Federated: Optymalizacja rozproszona poza centrum danych, Jakub Konecny, H. Brendan McMahan, Daniel Ramage, 2015
  2. ^ A B C D To jest F G H Peter Kairouz, H. Brendan McMahan E Brendan Avent, Postępy i otwarte problemy w nauce federacyjnej , W ARXIV: 1912.04977 [CS, STAT] , 10 grudnia 2019 r. URL skonsultował się 25 czerwca 2020 r. .
  3. ^ Zdecentralizowane wspólne uczenie się spersonalizowanych modeli nad sieciami Paul Vanhaesebrouck, Aurélien Bellet, Marc Tommasi, 2017
  4. ^ Stefano Savazzi, Monica Nicoli i Vittorio Rampa, Federated Uczenie się za pomocą urządzeń współpracujących: Konsensusowe podejście dla masywnych sieci IoT , W IEEE Internet of Things Journal , tom. 7, n. 5, 2020-05, s. 4641-4654, doi: 10.1109/jiot.2020.2964162 . URL skonsultował się 25 czerwca 2020 r. .
  5. ^ A B Keith Bonawitz, Hubert Eichner E Wolfgang Grieskamp, W kierunku uczenia się federacji na skalę: projektowanie systemu , W ARXIV: 1902.01046 [CS, STAT] , 22 Marzo 2019. URL skonsultował się 25 czerwca 2020 r. .
  6. ^ Otkrist Gupta e Ramesh zniekształca, Rozproszone uczenie się głębokiej sieci neuronowej nad wieloma agentami , W ARXIV: 1810.06060 [CS, STAT] , 14 października 2018 r. URL skonsultował się 25 czerwca 2020 r. .
  7. ^ Praneeeth Vepakomma, Otkrist Gupta e Tristan Szwedzki, Podzielone uczenie się dla zdrowia: rozproszone głębokie uczenie się bez udostępniania surowych danych pacjentów , W ARXIV: 1812.00564 [CS, STAT] , 3 grudnia 2018 r. URL skonsultował się 25 czerwca 2020 r. .
  8. ^ Hubert Eichner, Tomer Koren E H. Brendan McMahan, Pół-cykliczne stochastyczne zejście , W ARXIV: 1904.10120 [CS, STAT] , 22 kwietnia 2019 r. URL skonsultował się 25 czerwca 2020 r. .
  9. ^ Wspólne głębokie uczenie się w stałej topologii, Zhanhong Jiang, Aditya Balu, Chinmay Hegde, Soumik Sarkar, 2017
  10. ^ A B Gossipgrad: Skalowalne głębokie uczenie się przy użyciu asynchronicznego zejścia z plotkami, Jeff Daily, Abhinav Vishnu, Charles Siegel, Thomas Warfel, Vinay Amatya, 2018
  11. ^ Prywatność konserwującą głęboką uczenie się, R. Shokri i V. Shmatikov, 2015
  12. ^ A B Efektywne uczenie się głębokich sieci z zdecentralizowanych danych, H. Brendan McMahan i Al. 2017
  13. ^ Eugene Bagdasaryan, Andreas veit e yiqing hua, Jak wspierać się nauka federowana , W ARXIV: 1807.00459 [CS] , 6 sierpnia 2019 r. URL skonsultował się 25 czerwca 2020 r. .
  14. ^ ( W ) Aaron Segal, Antonio Marcedone, Benjamin Kreuter, Daniel Ramage, H. Brendan McMahan, Karn Seth, Praktyczna bezpieczna agregacja w zakresie uczenia maszynowego wymagającego prywatności . Czy Google Research , 2017. URL skonsultował się 25 czerwca 2020 r. .
  15. ^ Felix Sattler, Klaus-Robert Müller E Wojciech same Uczenie się federowane: modele-aagnostic rozproszony optymalizacja wielozadaniowa w ramach ograniczeń prywatności , W ARXIV: 1910.01991 [CS, STAT] , 4 października 2019 r. URL skonsultował się 25 czerwca 2020 r. .
  16. ^ Manoj Ghuhan Arivazhagan, Vinay Aggarwal E Aaditya Kumar Singh, Federated Learning z warstwami personalizacji , W ARXIV: 1912.00818 [CS, STAT] , 2 grudnia 2019 r. URL skonsultowano 26 czerwca 2020 r. .
  17. ^ ( W ) A. Anonimowy, Prywatność danych konsumenckich w sieciowym świecie: ramy ochrony prywatności i promowania innowacji w globalnej gospodarce cyfrowej , W Journal of Privacy and Confiulity , tom. 4, n. 2, 1 marca 2013 r., Doi: 10.29012/jpc.v4i2.623 . URL skonsultowano 26 czerwca 2020 r. .
  18. ^ Recital 39 regulacji (UE) 2016/679 (ogólne rozporządzenie w sprawie ochrony danych)
  19. ^ A B Jakub Konečný, H. Brendan McMahan E Daniel Ramage, Optymalizacja federowana: rozproszone uczenie maszynowe dla inteligencji na urządzeniu , W ARXIV: 1610.02527 [CS] , 8 października 2016 r. URL skonsultował się 25 czerwca 2020 r. .
  20. ^ A B Jakub Konečný, H. Brendan McMahan E Felix X. Yu, Uczenie się federacji: strategie poprawy wydajności komunikacji , W ARXIV: 1610.05492 [CS] , 30 października 2017 r. URL skonsultował się 25 czerwca 2020 r. .
  21. ^ Michael Blot, David Picard E Matthieu Cord, Szkolenie plotek do głębokiego uczenia się , W ARXIV: 1611.09726 [CS, STAT] , 29 listopada 2016 r. URL skonsultował się 25 czerwca 2020 r. .
  22. ^ Robin C. Geyer, Tassilo Klein E Moin Nabi, Różnicowo prywatne uczenie się federacji: perspektywa poziomu klienta , W ARXIV: 1712.07557 [CS, STAT] , 1 marca 2018 r. URL skonsultował się 25 czerwca 2020 r. .
  23. ^ Mohammad Mohammadi Supervisor E Deniz Gunduz, Uczenie się federacji nad bezprzewodowymi kanałami zanikającymi , W ARXIV: 1907.09769 [CS, Math] , 10 lutego 2020 r. URL skonsultował się 25 czerwca 2020 r. .
  24. ^ ( W ) Uczenie się federacji: Wspólne uczenie maszynowe bez scentralizowanych danych szkoleniowych . Czy Blog Google AI . URL skonsultował się 25 czerwca 2020 r. .
  25. ^ Uczenie się federowane: uczenie maszynowe na zdecentralizowanych danych . Czy youtube.com .
  26. ^ Jie Xu e Fei Wang, Federated Learning for Healthcare Informatics , W ARXIV: 1911.06270 [CS] , 12 listopada 2019 r. URL skonsultował się 25 czerwca 2020 r. .
  27. ^ Ahmet M. Elbir E S. Kołnierze, Federated Learning w sieciach samochodowych , W ARXIV: 2006.01412 [CS, EESS, Math] , 2 czerwca 2020 r. URL skonsultował się 25 czerwca 2020 r. .
  28. ^ ( W ) Raffaelèle Cuoff), Waiting Cositelli i Giuseitelli, Aplikacje sztucznej inteligencji i uczenia maszynowego w inteligentnej produkcji: postęp, trendy i wskazówki , W Zrównoważony rozwój , vol. 12, n. 2, 2020/1, s. 492, dwa: 10.3390/SU12020492 . URL skonsultował się 25 czerwca 2020 r. .
  29. ^ ( W ) Tensorflow Federated . Czy Tensorflow . URL skonsultował się 25 czerwca 2020 r. .
  30. ^ Openmined/Pysyft , Openmined, 25 czerwca 2020 r. URL skonsultował się 25 czerwca 2020 r. .
  31. ^ LIŚĆ . Czy Leaf.cmu.edu . URL skonsultował się 25 czerwca 2020 r. .
  • Khademi Nori Milad, Yun Sangseok, Kim Il-Min, Fast Federated Learning przez kompromisy barancowe (2021). [Pierwszy] W [2] .

after-content-x4