[{"@context":"http:\/\/schema.org\/","@type":"BlogPosting","@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/federated-learning-wikipedia\/#BlogPosting","mainEntityOfPage":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/federated-learning-wikipedia\/","headline":"Federated Learning – Wikipedia","name":"Federated Learning – Wikipedia","description":"before-content-x4 L ‘ Uczenie si\u0119 federacji (znany r\u00f3wnie\u017c jako uczenie si\u0119 wsp\u00f3\u0142pracy ) to automatyczna technika uczenia si\u0119, kt\u00f3ra pozwala","datePublished":"2019-05-15","dateModified":"2019-05-15","author":{"@type":"Person","@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/author\/lordneo\/#Person","name":"lordneo","url":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/author\/lordneo\/","image":{"@type":"ImageObject","@id":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/44a4cee54c4c053e967fe3e7d054edd4?s=96&d=mm&r=g","height":96,"width":96}},"publisher":{"@type":"Organization","name":"Enzyklop\u00e4die","logo":{"@type":"ImageObject","@id":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","url":"https:\/\/wiki.edu.vn\/wiki4\/wp-content\/uploads\/2023\/08\/download.jpg","width":600,"height":60}},"image":{"@type":"ImageObject","@id":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/e\/e2\/Federated_learning_process_central_case.png\/440px-Federated_learning_process_central_case.png","url":"https:\/\/upload.wikimedia.org\/wikipedia\/commons\/thumb\/e\/e2\/Federated_learning_process_central_case.png\/440px-Federated_learning_process_central_case.png","height":"211","width":"440"},"url":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/federated-learning-wikipedia\/","wordCount":7467,"articleBody":" (adsbygoogle = window.adsbygoogle || []).push({});before-content-x4L ‘ Uczenie si\u0119 federacji (znany r\u00f3wnie\u017c jako uczenie si\u0119 wsp\u00f3\u0142pracy ) to automatyczna technika uczenia si\u0119, kt\u00f3ra pozwala wyszkoli\u0107 algorytm za pomoc\u0105 zdecentralizowanych urz\u0105dze\u0144 lub serwer\u00f3w, kt\u00f3re utrzymuj\u0105 dane, bez konieczno\u015bci wymiany danych. Podej\u015bcie to przeciwstawia si\u0119 tradycyjnym scentralizowanym automatycznym technikom uczenia si\u0119, w kt\u00f3rych dane s\u0105 \u0142adowane na serwer lub bardziej tradycyjne zdecentralizowane metody, kt\u00f3re przyjmuj\u0105, \u017ce dane lokalne s\u0105 rozpowszechniane identycznie. (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Federated Learning pozwala r\u00f3\u017cnym uczestnikom zbudowa\u0107 model wsp\u00f3lnego i solidnego automatycznego uczenia si\u0119, bez wymiany \u017cadnych danych. Korzystanie z tej techniki pozwala poradzi\u0107 sobie z krytycznymi problemami, takimi jak prawa ochrony, bezpiecze\u0144stwa i dost\u0119pu do danych oraz wykorzystanie heterogenicznych danych. G\u0142\u00f3wne zastosowania uczenia si\u0119 federacji obejmuj\u0105 r\u00f3\u017cne dziedziny, takie jak obrona, telekomunikacja, IoT i farmaceutyka. Federated Learning ma na celu dostarczenie metod szkolenia automatycznego modelu uczenia si\u0119, na przyk\u0142ad g\u0142\u0119bokich sieci neuronowych, wykorzystuj\u0105c dane lokalne, kt\u00f3re s\u0105 dystrybuowane na wielu w\u0119z\u0142ach bez potrzeby wymiany tego samego. Og\u00f3lna zasada polega na badaniu przez modele lokalne z wykorzystaniem danych dost\u0119pnych lokalnie w w\u0119z\u0142ach oraz poprzez wymian\u0119 parametr\u00f3w (na przyk\u0142ad wag g\u0142\u0119bokiej sieci neuronowej) generuje model globalny.G\u0142\u00f3wna r\u00f3\u017cnica mi\u0119dzy uczeniem si\u0119 federowanym a rozproszonym uczeniem si\u0119 polega na hipotezach sformu\u0142owanych na w\u0142a\u015bciwo\u015bciach lokalnych zestaw\u00f3w danych [Pierwszy] Poniewa\u017c uczenie si\u0119 rozproszone narodzi\u0142o si\u0119 z zamiarem r\u00f3wnoleg\u0142o\u015bci do si\u0142y obliczeniowej, podczas gdy podej\u015bcie federacyjne ma szkolenie modeli heterogenicznych danych jako jej zamiaru. Chocia\u017c podej\u015bcie rozproszone ma jako cel uczenie si\u0119 pojedynczego modelu na wielu serwerach, dane przechowywane w lokalnych w\u0119z\u0142ach s\u0105 uwa\u017cane za identycznie roz\u0142o\u017cone i maj\u0105 oko\u0142o tego samego rozmiaru dla wszystkich w\u0119z\u0142\u00f3w. \u017badna z tych hipotez nie jest tworzona do nauki federacyjnej. W rzeczywisto\u015bci dane dost\u0119pne dla w\u0119z\u0142\u00f3w s\u0105 na og\u00f3\u0142 heterogeniczne i maj\u0105 wymiary, kt\u00f3re mog\u0105 r\u00f3wnie\u017c r\u00f3\u017cni\u0107 si\u0119 od wielu rz\u0119d\u00f3w wielko\u015bci. Ponadto w\u0119z\u0142y zaanga\u017cowane w federacyjne uczenie si\u0119 mog\u0105 ponie\u015b\u0107 roz\u0142\u0105czenia lub usterki, g\u0142\u00f3wnie ze wzgl\u0119du na zastosowane \u015brodki komunikacji (na przyk\u0142ad Wi-Fi) lub na baterii (na przyk\u0142ad smartfon\u00f3w lub urz\u0105dze\u0144 IoT), podczas gdy w\u0119z\u0142y rozwa\u017cane w szkoleniu s\u0105 roz\u0142o\u017cone w szkoleniu g\u0142\u00f3wnie centra przetwarzania danych o bardzo wysokiej pojemno\u015bci obliczeniowej i mog\u0105 korzysta\u0107 z po\u0142\u0105czenia o wysokiej pr\u0119dko\u015bci . [2] Table of Contents (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Scentralizowane uczenie si\u0119 federacji [[[ zmiana |. Modifica Wikitesto ] Zdecentralizowana nauka federacyjna [[[ zmiana |. Modifica Wikitesto ] Iteracyjna nauka [[[ zmiana |. Modifica Wikitesto ] Non-I.I.D. [[[ zmiana |. Modifica Wikitesto ] Topologia sieci [[[ zmiana |. Modifica Wikitesto ] Federowane parametry uczenia si\u0119 [[[ zmiana |. Modifica Wikitesto ] Federowane stochastyczne zej\u015bcie gradientu (FedsGD) [[[ zmiana |. Modifica Wikitesto ] Federowane u\u015brednianie [[[ zmiana |. Modifica Wikitesto ] Prywatno\u015b\u0107 wed\u0142ug projektu [[[ zmiana |. Modifica Wikitesto ] Dostosowywanie [[[ zmiana |. Modifica Wikitesto ] Prawne aspekty nauki federacji [[[ zmiana |. Modifica Wikitesto ] Google Gboard [[[ zmiana |. Modifica Wikitesto ] Federacja uczenia si\u0119 w opiece zdrowotnej [[[ zmiana |. Modifica Wikitesto ] Systemy transportowe: autonomiczne pojazdy jazdy [[[ zmiana |. Modifica Wikitesto ] Przemys\u0142 4.0: Inteligentne systemy produkcyjne [[[ zmiana |. Modifica Wikitesto ] Scentralizowane uczenie si\u0119 federacji [[[ zmiana |. Modifica Wikitesto ] W scentralizowanych federowanych metod uczenia si\u0119 centralny serwer odpowiada za zarz\u0105dzanie r\u00f3\u017cnymi krokami dla u\u017cywanych algorytm\u00f3w i koordynacj\u0119 w\u0119z\u0142\u00f3w uczestnicz\u0105cych w procesie uczenia si\u0119. Serwer ma obowi\u0105zek wybiera\u0107 w\u0119z\u0142y na pocz\u0105tku procedury i ma zadanie agregowania modeli otrzymanych z w\u0119z\u0142\u00f3w podczas fazy uczenia si\u0119. Bior\u0105c pod uwag\u0119, \u017ce wszystkie uczestnicz\u0105ce w\u0119z\u0142y musz\u0105 wys\u0142a\u0107 modele do jednego jednostki, serwer mo\u017ce stanowi\u0107 form\u0119 spowolnienia dla systemu. [2] Zdecentralizowana nauka federacyjna [[[ zmiana |. Modifica Wikitesto ] W zdecentralizowanych federacyjnych metodach uczenia si\u0119 w\u0119z\u0142y maj\u0105 zdolno\u015b\u0107 koordynowania w celu uzyskania modelu globalnego. Techniki te pozwalaj\u0105 rozwi\u0105za\u0107 problem scentralizowanych podej\u015b\u0107, poniewa\u017c w\u0119z\u0142y s\u0105 w stanie wymieni\u0107 aktualizacje modeli bez koordynacji serwera centralnego. Niemniej jednak konkretna konfiguracja topologii sieci mo\u017ce wp\u0142yn\u0105\u0107 na wydajno\u015b\u0107 procesu uczenia si\u0119. [2] Og\u00f3lny proces uczenia si\u0119 federowany w scentralizowanej konfiguracji Iteracyjna nauka [[[ zmiana |. Modifica Wikitesto ] Aby zapewni\u0107 dobre wykonanie dzia\u0142a\u0144 w celu uzyskania globalnego modelu udost\u0119pnionego przez wszystkie w\u0119z\u0142y, uczenie si\u0119 federacyjne opiera si\u0119 na iteracyjnym procesie podzielonym na zestaw atomowy interakcji klient-serwer znany jako runda federacyjna. W ka\u017cdym cyklu tego procesu bie\u017c\u0105cy stan modelu jest przesy\u0142any do uczestnicz\u0105cych w\u0119z\u0142\u00f3w, w\u0119z\u0142y w\u0119z\u0142y aktualizuj\u0105 model za pomoc\u0105 dost\u0119pnych danych lokalnych i tworz\u0105 seri\u0119 potencjalnych aktualizacji modelu. Wreszcie model globalny jest aktualizowany przez agregowanie aktualizacji otrzymanych z w\u0119z\u0142\u00f3w. [2] W poni\u017cszej metodologii zak\u0142ada si\u0119, \u017ce proces uczenia si\u0119 uwzgl\u0119dnia interakcj\u0119 centralnego serwera, kt\u00f3ry zapewnia polecenia w\u0119z\u0142om w operacjach, kt\u00f3re maj\u0105 zosta\u0107 przeprowadzone. Jednak zastosowanie metodologii, kt\u00f3re nie wymagaj\u0105 zastosowania centralnej jednostki, takich jak podej\u015bcia peer-to-peer, zapewnia te same wyniki poprzez zastosowanie metodologii plotek [3] lub zgoda. [4] (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4Bior\u0105c pod uwag\u0119, \u017ce runda federacyjna sk\u0142ada si\u0119 z iteracji procesu uczenia si\u0119, procedur\u0119 szkolenia federacyjnego mo\u017cna opisa\u0107 w nast\u0119puj\u0105cy spos\u00f3b: [5] Inicjalizacja : W oparciu o dane wej\u015bciowe dostarczone przez serwer, automatyczny model uczenia si\u0119, na przyk\u0142ad regresja liniowa, sie\u0107 neuronowa lub wzmocnienie, jest wybrany do nauki lokalnych w\u0119z\u0142\u00f3w i jest inicjowany. Po zako\u0144czeniu wyboru modelu i inicjalizacji tego samego w\u0119z\u0142y s\u0105 aktywowane i czekaj\u0105 na dalsze instrukcje z serwera. Wyb\u00f3r w\u0119z\u0142\u00f3w : Frakcja dost\u0119pnych w\u0119z\u0142\u00f3w jest wybierana w celu rozpocz\u0119cia fazy uczenia si\u0119 danych lokalnych. Wybrane w\u0119z\u0142y nabywaj\u0105 bie\u017c\u0105cy model z serwera, podczas gdy inne czekaj\u0105 na nast\u0119pn\u0105 rund\u0119. Konfiguracja : Serwer komunikuje si\u0119 z wybranymi w\u0119z\u0142ami, aby rozpocz\u0105\u0107 uczenie si\u0119 przy u\u017cyciu ich danych lokalnych w trybie domy\u015blnym (na przyk\u0142ad przy u\u017cyciu mini-partii do obliczenia gradientu). Komunikacja : Wybrane w\u0119z\u0142y wysy\u0142aj\u0105 swoje modele do serwera w celu agregacji. Serwer atakuje modele otrzymane w oparciu o wybrany algorytm na pocz\u0105tku i zwraca wynik agregacji do w\u0119z\u0142\u00f3w. Ponadto serwer zarz\u0105dza wszelkimi roz\u0142\u0105czonymi b\u0142\u0119dami lub w\u0119z\u0142ami. W tym momencie rozpocznie si\u0119 nast\u0119pna runda, a proces rozpoczyna si\u0119 od fazy wyboru w\u0119z\u0142\u00f3w. Zako\u0144czenie : Po osi\u0105gni\u0119ciu kryterium zako\u0144czenia, na przyk\u0142ad po osi\u0105gni\u0119ciu maksymalnej liczby iteracji lub dok\u0142adno\u015b\u0107 modelu jest wi\u0119ksza ni\u017c okre\u015blony pr\u00f3g, serwer agreguje najnowsze aktualizacje dostarczone przez w\u0119z\u0142y i buduje model globalny. Uwzgl\u0119dniona wcze\u015bniej procedura zak\u0142ada, \u017ce \u200b\u200bmodele s\u0105 aktualizowane synchronicznie. Ostatnie osi\u0105gni\u0119cia w nauce federacyjnej zacz\u0119\u0142y wprowadza\u0107 mechanizmy aktualizacji asynchronicznej. W por\u00f3wnaniu z podej\u015bciami synchronicznymi, w kt\u00f3rych modele lokalne s\u0105 wymieniane po wykonaniu oblicze\u0144 na wszystkich warstwach sieci neuronowej, asynchroniczne wykorzystuj\u0105 w\u0142a\u015bciwo\u015bci sieci neuronowych do wysy\u0142ania aktualizacji, gdy obliczenia na okre\u015blonej warstwie s\u0105 uko\u0144czone. Te techniki s\u0105 powszechnie nazywane dzielonym uczeniem si\u0119 [6] [7] Mo\u017cna je zastosowa\u0107 zar\u00f3wno podczas fazy uczenia si\u0119, jak i wnioskowania niezale\u017cnie, je\u017celi uznano go za scentralizowane lub zdecentralizowane podej\u015bcie do uczenia si\u0119 federacji. [2] Non-I.I.D. [[[ zmiana |. Modifica Wikitesto ] W wi\u0119kszo\u015bci przypadk\u00f3w za\u0142o\u017cenie posiadania niezale\u017cnych i identycznie rozproszonych danych dost\u0119pnych dla lokalnych w\u0119z\u0142\u00f3w nie dotyczy federowanych konfiguracji uczenia si\u0119. W tych przypadkach wydajno\u015b\u0107 procesu szkoleniowego mo\u017ce si\u0119 znacznie r\u00f3\u017cni\u0107 w zale\u017cno\u015bci od nier\u00f3wnowagi danych lokalnych, a tak\u017ce szczeg\u00f3lnego rozk\u0142adu prawdopodobie\u0144stwa przyk\u0142ad\u00f3w szkolenia (tj. Charakterystyki i etykiet) przechowywanych w lokalnych w\u0119z\u0142ach. Aby pog\u0142\u0119bi\u0107 skutki danych rozmieszczonych w spos\u00f3b, w jaki nie I.I.D., nast\u0119puj\u0105cy opis rozwa\u017ca g\u0142\u00f3wne kategorie przedstawione w post\u0119pach w artykule i otwarte problemy w nauce federacyjnej, Peter Kairouz i Al. 2019. Opis tych konkretnych rodzaj\u00f3w danych opiera si\u0119 na analizie wsp\u00f3lnego prawdopodobie\u0144stwa cech i etykiet dost\u0119pnych dla ka\u017cdego w\u0119z\u0142a lokalnego. Pozwala to na rozpad ka\u017cdego wk\u0142adu w oparciu o konkretny rozk\u0142ad dost\u0119pny dla lokalnych w\u0119z\u0142\u00f3w. G\u0142\u00f3wne kategorie mo\u017cna podsumowa\u0107 w nast\u0119puj\u0105cy spos\u00f3b: [2] Zmienna zmiana : Lokalne w\u0119z\u0142y mog\u0105 przechowywa\u0107 dane, kt\u00f3re maj\u0105 r\u00f3\u017cne rozk\u0142ady statystyczne ni\u017c inne w\u0119z\u0142y. Ten warunek wyst\u0119puje na przyk\u0142ad w zestawach danych do przetwarzania j\u0119zyka naturalnego, w kt\u00f3rym r\u00f3\u017cne osoby mog\u0105 pisa\u0107 t\u0119 sam\u0105 liter\u0119 o r\u00f3\u017cnych szeroko\u015bciach i\/lub sk\u0142onno\u015bciach. Przemieszczenie prawdopodobie\u0144stwa do uprzedniego I: Lokalne w\u0119z\u0142y mog\u0105 przechowywa\u0107 etykiety, kt\u00f3re maj\u0105 r\u00f3\u017cne rozk\u0142ady statystyczne ni\u017c inne w\u0119z\u0142y. Mo\u017ce si\u0119 to zdarzy\u0107, je\u015bli zestawy danych s\u0105 regionalne i\/lub demograficzne podzielone. Na przyk\u0142ad zestawy danych zawieraj\u0105ce obrazy zwierz\u0105t r\u00f3\u017cni\u0105 si\u0119 znacznie w zale\u017cno\u015bci od kraju. Ruch koncepcji ( te same etykiety, ale r\u00f3\u017cne cechy ): Lokalne w\u0119z\u0142y mog\u0105 dzieli\u0107 te same etykiety, ale niekt\u00f3re z nich odpowiadaj\u0105 r\u00f3\u017cnym cechom dla r\u00f3\u017cnych w\u0119z\u0142\u00f3w. Na przyk\u0142ad obrazy przedstawiaj\u0105ce okre\u015blony obiekt mog\u0105 si\u0119 r\u00f3\u017cni\u0107 w zale\u017cno\u015bci od warunk\u00f3w pogodowych, w kt\u00f3rych zosta\u0142y uchwycone. Ruch koncepcji ( Te same cechy, ale r\u00f3\u017cne etykiety ): Lokalne w\u0119z\u0142y mog\u0105 mie\u0107 te same cechy, ale niekt\u00f3re z nich odpowiadaj\u0105 r\u00f3\u017cnym etykietom dla r\u00f3\u017cnych w\u0119z\u0142\u00f3w. Na przyk\u0142ad w opracowaniu j\u0119zyka naturalnego analiza uczu\u0107 mo\u017ce wywo\u0142ywa\u0107 r\u00f3\u017cne uczucia, nawet je\u015bli zaobserwowano ten sam tekst. Brak r\u00f3wnowagi : Rozmiar danych przechowywanych w w\u0119z\u0142ach mo\u017ce znacznie si\u0119 r\u00f3\u017cni\u0107. Inne deskryptory danych nie I.I.D. We\u017a pod uwag\u0119 dynamiczn\u0105 zmian\u0119 topologii sieci, [8] Z powodu awarii lub niekwalifikowalno\u015bci lokalnych w\u0119z\u0142\u00f3w podczas federalnego procesu uczenia si\u0119 lub ruch\u00f3w zestaw\u00f3w danych, w kt\u00f3rych w\u0119z\u0142y uczestnicz\u0105ce w fazie szkoleniowej do nauki modelu globalnego mog\u0105 nie by\u0107 odpowiednie podczas wnioskowania z powodu niewystarczaj\u0105cych mo\u017cliwo\u015bci obliczeniowych. Przek\u0142ada si\u0119 to na r\u00f3\u017cnic\u0119 mi\u0119dzy statystykami danych szkoleniowych i wnioskowania. [2] Topologia sieci [[[ zmiana |. Modifica Wikitesto ] Spos\u00f3b, w jaki lokalne wyniki statystyczne s\u0105 pogrupowane, a spos\u00f3b, w jaki w\u0119z\u0142y si\u0119 ze sob\u0105 komunikuj\u0105, mo\u017ce si\u0119 zmieni\u0107 w por\u00f3wnaniu z scentralizowanym modelem wyja\u015bnionym w poprzednim rozdziale. Prowadzi to do r\u00f3\u017cnych podej\u015b\u0107 do uczenia si\u0119 federacji: na przyk\u0142ad przypadek, w kt\u00f3rym serwer centralny nie jest obecny lub komunikacji stochastycznej. [9] W szczeg\u00f3lno\u015bci sieci dystrybuowane bez koordynatora centralnego stanowi\u0105 wa\u017cny wariant. W takim przypadku nie ma centralnego serwera, kt\u00f3ry wysy\u0142a \u017c\u0105dania do lokalnych w\u0119z\u0142\u00f3w i kt\u00f3ry atakuje modele otrzymane z w\u0119z\u0142\u00f3w. Ka\u017cdy w\u0119ze\u0142 wysy\u0142a w\u0142asny model do kilku losowo wybranych w\u0119z\u0142\u00f3w, [dziesi\u0119\u0107] kt\u00f3rzy agreguj\u0105 wyniki lokalnie. Ogranicza to liczb\u0119 transakcji, czasami skracaj\u0105c czas uczenia si\u0119 i koszty przetwarzania. [dziesi\u0119\u0107] Federowane parametry uczenia si\u0119 [[[ zmiana |. Modifica Wikitesto ] Po wybraniu topologii sieci Nodi mo\u017cliwe jest kontrolowanie r\u00f3\u017cnych parametr\u00f3w procesu uczenia si\u0119 federalnego (w przeciwie\u0144stwie do hiperparametr\u00f3w modelu automatycznego uczenia si\u0119) w celu optymalizacji uczenia si\u0119: Liczba cykli do nauki federacyjnej: T {DisplayStyle T} Ca\u0142kowita liczba w\u0119z\u0142\u00f3w u\u017cywanych podczas procesu uczenia si\u0119: K {DisplayStyle K} U\u0142amek w\u0119z\u0142\u00f3w u\u017cywanych na ka\u017cdej iteracji dla ka\u017cdego w\u0119z\u0142a: C {DisplayStyle C} Rozmiar liczby lokalnych przyk\u0142ad\u00f3w u\u017cywanych na ka\u017cdej iteracji w procesie uczenia si\u0119: B {DisplayStyle B} Opr\u00f3cz ju\u017c wymienionych, dalsze parametry, takie jak: Liczba iteracji lokalnego uczenia si\u0119 w\u0119z\u0142a: N {DisplayStyle n} Lokalny wska\u017anik uczenia si\u0119: . {DisplayStyle eta} Parametry te musz\u0105 by\u0107 zoptymalizowane zgodnie z ograniczeniami aplikacji automatycznej uczenia si\u0119 (na przyk\u0142ad dost\u0119pnej mocy obliczeniowej, dost\u0119pnej pami\u0119ci, przepustowo\u015bci). Na przyk\u0142ad wyb\u00f3r ograniczonej frakcji stokastycznie C {DisplayStyle C} W\u0119z\u0142y dla ka\u017cdej iteracji mo\u017cna zmniejszy\u0107 przez koszty przetwarzania, a nadmiern\u0105 adaptacj\u0119 modelu mo\u017cna zapobiec, w taki sam spos\u00f3b, jak zej\u015bcie gradientu stochastycznego mo\u017ce zmniejszy\u0107 nadmiern\u0105 adaptacj\u0119. W tej sekcji wystawa artyku\u0142u oszcz\u0119dna uczenie si\u0119 g\u0142\u0119bokich sieci z zdecentralizowanych danych, H. Brendan McMahan i Al. 2017 jest brany pod uwag\u0119. Aby opisa\u0107 r\u00f3\u017cne federacyjne metody uczenia si\u0119, wprowadzono nast\u0119puj\u0105ce zapisy: Federowane stochastyczne zej\u015bcie gradientu (FedsGD) [[[ zmiana |. Modifica Wikitesto ] Szkolenie w zakresie g\u0142\u0119bokiego uczenia si\u0119 opiera si\u0119 g\u0142\u00f3wnie na wariantach stokastycznego pochodzenia gradientu, w kt\u00f3rych gradienty s\u0105 obliczane na losowym podzbiorze dost\u0119pnych danych, a nast\u0119pnie wykorzystywane do wykonania przej\u015bcia w algorytmie zej\u015bcia gradientu. IL Federated Stochastic Gradient Descent [11] Jest to bezpo\u015brednia transpozycja tego algorytmu do podej\u015bcia federowanego, ale stosowanie losowej frakcji C {DisplayStyle C} W\u0119z\u0142y i u\u017cycie wszystkich danych w rozwa\u017canym w\u0119\u017ale. Gradienty po\u015brednicz\u0105 serwer proporcjonalny do liczby pr\u00f3bek w ka\u017cdym w\u0119\u017ale i wykorzystywane do wykonywania etapu zej\u015bcia gradientu. Federowane u\u015brednianie [[[ zmiana |. Modifica Wikitesto ] IL Federated U\u015brednianie (FedAVG) [dwunasty] Jest to uog\u00f3lnienie FedSGD, kt\u00f3re pozwala lokalnym w\u0119z\u0142om wykonywa\u0107 wi\u0119cej ni\u017c jedn\u0105 aktualizacj\u0119 danych lokalnych, a zaktualizowane wagi s\u0105 wymieniane zamiast gradient\u00f3w. Logika tej uog\u00f3lnienia polega na tym, \u017ce w FedSGD, je\u015bli wszystkie lokalne w\u0119z\u0142y zaczynaj\u0105 si\u0119 od tej samej inicjalizacji, \u015brednia gradient\u00f3w jest \u015bci\u015ble r\u00f3wnowa\u017cna \u015bredniej samych wag. Ponadto \u015brednia skalibrowane ci\u0119\u017cary z tej samej inicjalizacji niekoniecznie uszkadza wydajno\u015b\u0107 uzyskanego przeci\u0119tnego modelu. Uczenie si\u0119 federacyjne wymaga cz\u0119stej komunikacji mi\u0119dzy w\u0119z\u0142ami podczas procesu uczenia si\u0119. Dlatego wymaga nie tylko wystarczaj\u0105cej mocy obliczeniowej i pami\u0119ci, ale tak\u017ce po\u0142\u0105cze\u0144 o wysokiej szeroko\u015bci, aby m\u00f3c wymienia\u0107 parametry modelu automatycznego uczenia si\u0119. Jednak technologia pozwala r\u00f3wnie\u017c unikn\u0105\u0107 komunikacji danych, co mo\u017ce wymaga\u0107 znacznych zasob\u00f3w przed rozpocz\u0119ciem automatycznego uczenia si\u0119 w scentralizowanej wersji. Jednak urz\u0105dzenia zwykle stosowane w uczeniu si\u0119 federacji maj\u0105 ograniczone umiej\u0119tno\u015bci komunikacyjne, na przyk\u0142ad urz\u0105dzenia IoT lub smartfony s\u0105 og\u00f3lnie po\u0142\u0105czone z sieciami Wi-Fi, dlatego nawet je\u015bli modele s\u0105 og\u00f3lnie ta\u0144sze w przesy\u0142aniu w por\u00f3wnaniu z surowymi danymi, uczenie si\u0119 federowane, federowane uczenie si\u0119 Mechanizmy mog\u0105 nie by\u0107 odpowiednie w ich og\u00f3lnej formie. Uczenie si\u0119 federowane wprowadza r\u00f3\u017cne ograniczenia statystyczne: Heterogeniczno\u015b\u0107 mi\u0119dzy r\u00f3\u017cnymi lokalnymi zestawami danych: ka\u017cdy w\u0119ze\u0142 mo\u017ce przedstawia\u0107 odchylenia w por\u00f3wnaniu z populacj\u0105 og\u00f3ln\u0105, a wielko\u015b\u0107 zestaw\u00f3w danych mo\u017ce si\u0119 znacznie r\u00f3\u017cni\u0107; Heterogeniczno\u015b\u0107 czasowa: Rozk\u0142ad danych przechowywanych przez w\u0119z\u0142y mo\u017ce si\u0119 r\u00f3\u017cni\u0107 w czasie; Interoperacyjno\u015b\u0107 zestawu danych ka\u017cdego w\u0119z\u0142a jest warunek wst\u0119pny; Zestaw danych ka\u017cdego w\u0119z\u0142a mo\u017ce \u017c\u0105da\u0107 regularnych zabieg\u00f3w; Zastosowanie mechanizm\u00f3w przyciemniaj\u0105cych danych wykorzystywanych do szkolenia mo\u017ce pozwoli\u0107 z\u0142o\u015bliwym u\u017cytkownikom wstrzykiwa\u0107 backdoor do modelu globalnego; [13] Brak dost\u0119pu do danych globalnych do szkolenia utrudnia zidentyfikowanie niechcianych odchyle\u0144, kt\u00f3re mog\u0105 wp\u0142ywa\u0107 na faz\u0119 uczenia si\u0119, na przyk\u0142ad wiek, p\u0142e\u0107, orientacja seksualna; Cz\u0119\u015bciowa lub ca\u0142kowita utrata aktualizacji modelu z powodu b\u0142\u0119d\u00f3w w\u0119z\u0142\u00f3w mo\u017ce wp\u0142ywa\u0107 na model globalny Prywatno\u015b\u0107 wed\u0142ug projektu [[[ zmiana |. Modifica Wikitesto ] G\u0142\u00f3wn\u0105 zalet\u0105 stosowania podej\u015b\u0107 federacyjnych w automatycznym uczeniu si\u0119 jest gwarancja poufno\u015bci lub tajemnicy danych. W rzeczywisto\u015bci \u017cadne dane lokalne nie s\u0105 \u0142adowane zewn\u0119trznie, po\u0142\u0105czone ani wymieniane. Poniewa\u017c ca\u0142a baza danych jest podzielona na segmenty w lokalnych bitach, utrudnia to manipulowanie. Dzi\u0119ki federowanemu uczeniu si\u0119 wymieniane s\u0105 tylko automatyczne parametry uczenia si\u0119. Ponadto parametry te mo\u017cna zaszyfrowa\u0107 przed udost\u0119pnieniem mi\u0119dzy cyklami uczenia si\u0119 w celu rozszerzenia prywatno\u015bci i wzorcami szyfrowania omomorficznego do bezpo\u015bredniego wykonywania oblicze\u0144 zaszyfrowanych danych bez ich odszyfrowania. Pomimo tych \u015brodk\u00f3w ochronnych parametry mog\u0105 nadal tworzy\u0107 widoczne informacje powi\u0105zane z danymi podstawowymi, na przyk\u0142ad poprzez przeprowadzanie wielu konkretnych zapyta\u0144 w okre\u015blonych zestawach danych. Zdolno\u015b\u0107 do kwestionowania w\u0119z\u0142\u00f3w jest zatem wa\u017cnym punktem uwagi, kt\u00f3re mo\u017cna rozwi\u0105za\u0107 za pomoc\u0105 prywatno\u015bci r\u00f3\u017cnicowej lub bezpiecznej agregacji. [14] Dostosowywanie [[[ zmiana |. Modifica Wikitesto ] Model generowany podczas fazy uczenia si\u0119 zapewnia zrozumienie globalnego modelu wyuczonego z w\u0119z\u0142\u00f3w. Je\u015bli jednak uczestnicz\u0105cy w\u0119ze\u0142 chce uczy\u0107 si\u0119 na globalnych wzorcach, ale tak\u017ce dostosowa\u0107 wyniki do jego szczeg\u00f3lnego stanu, metodologi\u0119 uczenia si\u0119 federowanej mo\u017cna dostosowa\u0107 do generowania dw\u00f3ch modeli jednocze\u015bnie w ramach uczenia si\u0119 wielozadaniowego. Ponadto techniki grupowania [15] Mo\u017cna je zastosowa\u0107 do agregowanych w\u0119z\u0142\u00f3w, kt\u00f3re dziel\u0105 pewne podobie\u0144stwa po zako\u0144czeniu procesu uczenia si\u0119. Umo\u017cliwia to uog\u00f3lnienie modeli wyuczonych z w\u0119z\u0142\u00f3w zgodnie z ich lokalnymi danymi. W przypadku g\u0142\u0119bokich sieci neuronowych mo\u017cna podzieli\u0107 si\u0119 niekt\u00f3rymi poziomami mi\u0119dzy r\u00f3\u017cnymi w\u0119z\u0142ami i zachowa\u0107 niekt\u00f3re w ka\u017cdym lokalnym w\u0119\u017ale. Zasadniczo pierwsze poziomy, kt\u00f3re wykonuj\u0105 og\u00f3lne rozpoznanie modelu, s\u0105 udost\u0119pniane i szkolone przy u\u017cyciu wszystkich zestaw\u00f3w danych. Najnowsze warstwy pozostan\u0105 jednak w ka\u017cdym lokalnym w\u0119\u017ale i zostan\u0105 przeszkolone tylko na zestawie danych w\u0119z\u0142a lokalnego. [16] Prawne aspekty nauki federacji [[[ zmiana |. Modifica Wikitesto ] Zachodnie obrazy prawne s\u0105 coraz bardziej ochrona i identyfikowalno\u015b\u0107 danych. Raport z Bia\u0142ego Domu 2012 [17] Zaleci\u0142 zastosowanie zasady minimalizacji danych, o kt\u00f3rych wspomniano w Europejskim RODO. [18] W niekt\u00f3rych przypadkach niemo\u017cliwe jest przesy\u0142anie danych z jednego kraju do drugiego (np. Dane genomowe), jednak czasami mi\u0119dzynarodowe konsorcjum s\u0105 niezb\u0119dne do post\u0119pu naukowego. W takich przypadkach Federated Learning oferuje rozwi\u0105zania tworzenia globalnego modelu zgodnie z ograniczeniami bezpiecze\u0144stwa. Uczenie si\u0119 federowane zacz\u0119\u0142o si\u0119 pojawia\u0107 jako wa\u017cny temat badawczy w 2015 r. [Pierwszy] A w 2016 roku [19] Z pierwszymi publikacjami na temat federowanego u\u015bredniania w dziedzinie telekomunikacji. Innym wa\u017cnym aspektem bada\u0144 jest zmniejszenie komunikacji podczas procesu uczenia si\u0119 federacji. W 2017 i 2018 r. Publikacje podkre\u015bli\u0142y opracowanie strategii alokacji zasob\u00f3w, w szczeg\u00f3lno\u015bci w celu zmniejszenia wymaga\u0144 [20] komunikacji [dwunasty] mi\u0119dzy w\u0119z\u0142ami z algorytmami plotek [21] , a tak\u017ce charakterystyka solidno\u015bci dla zr\u00f3\u017cnicowanych atak\u00f3w na prywatno\u015b\u0107. [22] Inne dzia\u0142ania badawcze koncentruj\u0105 si\u0119 na zmniejszeniu przepustowo\u015bci podczas szkolenia metodami [20] ograniczonego i kwantyzacji, w kt\u00f3rych automatyczne modele uczenia si\u0119 s\u0105 rozproszone i\/lub \u015bci\u015bni\u0119te przed udost\u0119pnieniem innym w\u0119z\u0142om. Ponadto niekt\u00f3re federacyjne techniki uczenia si\u0119 zaczynaj\u0105 uwzgl\u0119dnia\u0107 rzeczywiste kana\u0142y propagacji [23] Poniewa\u017c idealne kana\u0142y by\u0142y u\u017cywane w poprzednich implementacjach. Uczenie si\u0119 federowane jest og\u00f3lnie stosowane, gdy poszczeg\u00f3lne podmioty musz\u0105 tworzy\u0107 modele z zestaw\u00f3w danych wi\u0119kszych ni\u017c ich, ale nie mog\u0105 udost\u0119pnia\u0107 danych innym (na przyk\u0142ad z powod\u00f3w prawnych, strategicznych lub ekonomicznych). Jednak technologia wymaga dobrych po\u0142\u0105cze\u0144 mi\u0119dzy lokalnymi serwerami a minimaln\u0105 moc\u0105 obliczeniow\u0105 dla ka\u017cdego w\u0119z\u0142a. [2] Google Gboard [[[ zmiana |. Modifica Wikitesto ] Jedn\u0105 z pierwszych aplikacji rozwa\u017canych w dziedzinie nauki federowanej by\u0142a Google Gboard, zaimplementowana przez Google [5] [24] do u\u017cytku w predykcyjnych klawiaturach. Pod siln\u0105 presj\u0105 regulacyjn\u0105 niemo\u017cliwe by\u0142o za\u0142adowanie wiadomo\u015bci tekstowych wszystkich u\u017cytkownik\u00f3w w celu wyszkolenia algorytmu predykcyjnego w celu przewidywania s\u0142\u00f3w. Ponadto taki proces ujawni\u0142by zbyt wiele danych u\u017cytkownika na ataki. Pomimo pami\u0119ci, a czasem ograniczonej mocy przetwarzania smartfon\u00f3w, Google stworzy\u0142 przekonuj\u0105cy przypadek u\u017cycia przez swoj\u0105 p\u0142yt\u0119 G, jak przedstawiono podczas zdarzenia Google I\/O w 2019 roku. [25] Federacja uczenia si\u0119 w opiece zdrowotnej [[[ zmiana |. Modifica Wikitesto ] W badaniach farmaceutycznych realne dane s\u0105 wykorzystywane do tworzenia lek\u00f3w i ramion syntetycznych. Generowanie wiedzy na temat z\u0142o\u017conych problem\u00f3w biologicznych wymaga gromadzenia wielu danych r\u00f3\u017cnych instytucji medycznych, ch\u0119tnych do utrzymania kontroli nad ich wra\u017cliwymi pacjentami. Federated Learning pozwala badaczom tworzy\u0107 modele predykcyjne na wielu wra\u017cliwych danych przejrzystych bez konieczno\u015bci udost\u0119pniania. [26] Systemy transportowe: autonomiczne pojazdy jazdy [[[ zmiana |. Modifica Wikitesto ] Autonomiczne samochody jazdy wykorzystuj\u0105 do pracy wiele automatycznych technologii uczenia si\u0119: sztuczna wizja analizy przeszk\u00f3d, automatyczne uczenie si\u0119 dostosowywania swojego rytmu do \u015brodowiska (na przyk\u0142ad do nieprawid\u0142owo\u015bci drogi). Ze wzgl\u0119du na du\u017c\u0105 potencjaln\u0105 liczb\u0119 autonomicznych samochod\u00f3w nap\u0119dzaj\u0105cych i potrzeb\u0119 szybkiego reagowania na sytuacje krytyczne, scentralizowane tradycyjne podej\u015bcie mo\u017ce powodowa\u0107 zagro\u017cenia bezpiecze\u0144stwa. Uczenie si\u0119 federowane mo\u017ce reprezentowa\u0107 rozwi\u0105zanie ograniczaj\u0105ce obj\u0119to\u015b\u0107 transferu danych i przyspieszy\u0107 procesy uczenia si\u0119. [27] Przemys\u0142 4.0: Inteligentne systemy produkcyjne [[[ zmiana |. Modifica Wikitesto ] W bran\u017cy 4.0 przyj\u0119cie technik automatycznego uczenia si\u0119 jest powszechne [28] Aby poprawi\u0107 wydajno\u015b\u0107 i skuteczno\u015b\u0107 proces\u00f3w przemys\u0142owych, gwarantuj\u0105c wysoki poziom bezpiecze\u0144stwa. Jednak poufno\u015b\u0107 poufnych danych dla bran\u017c i firm produkcyjnych ma fundamentalne znaczenie. Do tych aplikacji mo\u017cna zastosowa\u0107 algorytmy uczenia si\u0119 federacji, poniewa\u017c pozwalaj\u0105 one nie ujawni\u0107 \u017cadnych poufnych danych. [19] Wraz z rosn\u0105cym zainteresowaniem wzbudzonym federowanymi badaniami uczenia si\u0119, wiele narz\u0119dzi programowych zosta\u0142o udost\u0119pnionych do wdra\u017cania r\u00f3\u017cnych konfiguracji uczenia si\u0119 federacji: Tensorflow Federated: [29] Jest to oprogramowanie typu open source, kt\u00f3re pozwala ka\u017cdemu u\u017cytkownikowi oceni\u0107 automatyczne modele uczenia si\u0119 na rozproszonych danych. Zapewnia r\u00f3\u017cne funkcje pszcz\u00f3\u0142 w celu symulacji federowanych architektur uczenia si\u0119 i definiowania okre\u015blonych oblicze\u0144 federowanych (np. R\u00f3\u017cne warianty uczenia si\u0119 federacji). Pysyft: [30] Jest to biblioteka Python, kt\u00f3ra zapewnia narz\u0119dzia do symulacji mechanizm\u00f3w ochrony prywatno\u015bci w federowanych technikach uczenia si\u0119. Opiera si\u0119 na dobrze znanym pakiecie Pytorch i pozwala uwzgl\u0119dni\u0107 algorytmy federacyjne dla r\u00f3\u017cnicowych system\u00f3w prywatno\u015bci i innych mechanizm\u00f3w bezpiecze\u0144stwa, na przyk\u0142ad Secure i omomorficzne szyfrowanie oblicze\u0144 wielopartyjnych. Li\u015b\u0107: [trzydziesty pierwszy] Jest to ramy stosowane w analizie por\u00f3wnawczej automatycznych modeli uczenia si\u0119 w algorytmach uczenia si\u0119 federowanych. Obs\u0142uguje wiele rodzaj\u00f3w automatycznego uczenia si\u0119, na przyk\u0142ad uczenie si\u0119 wielozadaniowo\u015bci, meta-learning i uczenie si\u0119 online. ^ A B Optymalizacja Federated: Optymalizacja rozproszona poza centrum danych, Jakub Konecny, H. Brendan McMahan, Daniel Ramage, 2015 ^ A B C D To jest F G H Peter Kairouz, H. Brendan McMahan E Brendan Avent, Post\u0119py i otwarte problemy w nauce federacyjnej , W ARXIV: 1912.04977 [CS, STAT] , 10 grudnia 2019 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Zdecentralizowane wsp\u00f3lne uczenie si\u0119 spersonalizowanych modeli nad sieciami Paul Vanhaesebrouck, Aur\u00e9lien Bellet, Marc Tommasi, 2017 ^ Stefano Savazzi, Monica Nicoli i Vittorio Rampa, Federated Uczenie si\u0119 za pomoc\u0105 urz\u0105dze\u0144 wsp\u00f3\u0142pracuj\u0105cych: Konsensusowe podej\u015bcie dla masywnych sieci IoT , W IEEE Internet of Things Journal , tom. 7, n. 5, 2020-05, s. 4641-4654, doi: 10.1109\/jiot.2020.2964162 . URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ A B Keith Bonawitz, Hubert Eichner E Wolfgang Grieskamp, W kierunku uczenia si\u0119 federacji na skal\u0119: projektowanie systemu , W ARXIV: 1902.01046 [CS, STAT] , 22 Marzo 2019. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Otkrist Gupta e Ramesh zniekszta\u0142ca, Rozproszone uczenie si\u0119 g\u0142\u0119bokiej sieci neuronowej nad wieloma agentami , W ARXIV: 1810.06060 [CS, STAT] , 14 pa\u017adziernika 2018 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Praneeeth Vepakomma, Otkrist Gupta e Tristan Szwedzki, Podzielone uczenie si\u0119 dla zdrowia: rozproszone g\u0142\u0119bokie uczenie si\u0119 bez udost\u0119pniania surowych danych pacjent\u00f3w , W ARXIV: 1812.00564 [CS, STAT] , 3 grudnia 2018 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Hubert Eichner, Tomer Koren E H. Brendan McMahan, P\u00f3\u0142-cykliczne stochastyczne zej\u015bcie , W ARXIV: 1904.10120 [CS, STAT] , 22 kwietnia 2019 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Wsp\u00f3lne g\u0142\u0119bokie uczenie si\u0119 w sta\u0142ej topologii, Zhanhong Jiang, Aditya Balu, Chinmay Hegde, Soumik Sarkar, 2017 ^ A B Gossipgrad: Skalowalne g\u0142\u0119bokie uczenie si\u0119 przy u\u017cyciu asynchronicznego zej\u015bcia z plotkami, Jeff Daily, Abhinav Vishnu, Charles Siegel, Thomas Warfel, Vinay Amatya, 2018 ^ Prywatno\u015b\u0107 konserwuj\u0105c\u0105 g\u0142\u0119bok\u0105 uczenie si\u0119, R. Shokri i V. Shmatikov, 2015 ^ A B Efektywne uczenie si\u0119 g\u0142\u0119bokich sieci z zdecentralizowanych danych, H. Brendan McMahan i Al. 2017 ^ Eugene Bagdasaryan, Andreas veit e yiqing hua, Jak wspiera\u0107 si\u0119 nauka federowana , W ARXIV: 1807.00459 [CS] , 6 sierpnia 2019 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ ( W ) Aaron Segal, Antonio Marcedone, Benjamin Kreuter, Daniel Ramage, H. Brendan McMahan, Karn Seth, Praktyczna bezpieczna agregacja w zakresie uczenia maszynowego wymagaj\u0105cego prywatno\u015bci . Czy Google Research , 2017. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Felix Sattler, Klaus-Robert M\u00fcller E Wojciech same Uczenie si\u0119 federowane: modele-aagnostic rozproszony optymalizacja wielozadaniowa w ramach ogranicze\u0144 prywatno\u015bci , W ARXIV: 1910.01991 [CS, STAT] , 4 pa\u017adziernika 2019 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Manoj Ghuhan Arivazhagan, Vinay Aggarwal E Aaditya Kumar Singh, Federated Learning z warstwami personalizacji , W ARXIV: 1912.00818 [CS, STAT] , 2 grudnia 2019 r. URL skonsultowano 26 czerwca 2020 r. . ^ ( W ) A. Anonimowy, Prywatno\u015b\u0107 danych konsumenckich w sieciowym \u015bwiecie: ramy ochrony prywatno\u015bci i promowania innowacji w globalnej gospodarce cyfrowej , W Journal of Privacy and Confiulity , tom. 4, n. 2, 1 marca 2013 r., Doi: 10.29012\/jpc.v4i2.623 . URL skonsultowano 26 czerwca 2020 r. . ^ Recital 39 regulacji (UE) 2016\/679 (og\u00f3lne rozporz\u0105dzenie w sprawie ochrony danych) ^ A B Jakub Kone\u010dn\u00fd, H. Brendan McMahan E Daniel Ramage, Optymalizacja federowana: rozproszone uczenie maszynowe dla inteligencji na urz\u0105dzeniu , W ARXIV: 1610.02527 [CS] , 8 pa\u017adziernika 2016 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ A B Jakub Kone\u010dn\u00fd, H. Brendan McMahan E Felix X. Yu, Uczenie si\u0119 federacji: strategie poprawy wydajno\u015bci komunikacji , W ARXIV: 1610.05492 [CS] , 30 pa\u017adziernika 2017 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Michael Blot, David Picard E Matthieu Cord, Szkolenie plotek do g\u0142\u0119bokiego uczenia si\u0119 , W ARXIV: 1611.09726 [CS, STAT] , 29 listopada 2016 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Robin C. Geyer, Tassilo Klein E Moin Nabi, R\u00f3\u017cnicowo prywatne uczenie si\u0119 federacji: perspektywa poziomu klienta , W ARXIV: 1712.07557 [CS, STAT] , 1 marca 2018 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Mohammad Mohammadi Supervisor E Deniz Gunduz, Uczenie si\u0119 federacji nad bezprzewodowymi kana\u0142ami zanikaj\u0105cymi , W ARXIV: 1907.09769 [CS, Math] , 10 lutego 2020 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ ( W ) Uczenie si\u0119 federacji: Wsp\u00f3lne uczenie maszynowe bez scentralizowanych danych szkoleniowych . Czy Blog Google AI . URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Uczenie si\u0119 federowane: uczenie maszynowe na zdecentralizowanych danych . Czy youtube.com . ^ Jie Xu e Fei Wang, Federated Learning for Healthcare Informatics , W ARXIV: 1911.06270 [CS] , 12 listopada 2019 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Ahmet M. Elbir E S. Ko\u0142nierze, Federated Learning w sieciach samochodowych , W ARXIV: 2006.01412 [CS, EESS, Math] , 2 czerwca 2020 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ ( W ) Raffael\u00e8le Cuoff), Waiting Cositelli i Giuseitelli, Aplikacje sztucznej inteligencji i uczenia maszynowego w inteligentnej produkcji: post\u0119p, trendy i wskaz\u00f3wki , W Zr\u00f3wnowa\u017cony rozw\u00f3j , vol. 12, n. 2, 2020\/1, s. 492, dwa: 10.3390\/SU12020492 . URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ ( W ) Tensorflow Federated . Czy Tensorflow . URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ Openmined\/Pysyft , Openmined, 25 czerwca 2020 r. URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . ^ LI\u015a\u0106 . Czy Leaf.cmu.edu . URL skonsultowa\u0142 si\u0119 25 czerwca 2020 r. . Khademi Nori Milad, Yun Sangseok, Kim Il-Min, Fast Federated Learning przez kompromisy barancowe (2021). [Pierwszy] W [2] . (adsbygoogle = window.adsbygoogle || []).push({});after-content-x4"},{"@context":"http:\/\/schema.org\/","@type":"BreadcrumbList","itemListElement":[{"@type":"ListItem","position":1,"item":{"@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/#breadcrumbitem","name":"Enzyklop\u00e4die"}},{"@type":"ListItem","position":2,"item":{"@id":"https:\/\/wiki.edu.vn\/all2pl\/wiki27\/federated-learning-wikipedia\/#breadcrumbitem","name":"Federated Learning – Wikipedia"}}]}]