Tony Jebara – badania

Original: http://128.59.11.206/~jebara/research.html

Tony Jebara

Tony kieruje Columbia Machine Learning Laboratory. Nasz obszar badań jest uczenie maszynowe, pola, które rozwija nowe algorytmy wykorzystujące dane do modelowania złożonych zjawisk świata rzeczywistego i dokładnego prognozowania nich. Nasza praca obejmuje zarówno stosowane i podstawowe aspekty tej dziedzinie. Zrobiliśmy składki migracji uogólniony dopasowanie, metody wykres teoretyczne i metody kombinatoryczne w dziedzinie uczenia maszynowego. Wprowadziliśmy też jednoczących ram, które łączą dwie odrębne metody w zakresie: dyskryminacyjną podejścia i podejścia generatywne. Aplikacje uczenia maszynowego pracowaliśmy nad miały wpływ w świecie rzeczywistym osiągnięcie stanu wyników sztuki widzenia, rozpoznawanie twarzy i śledzenie czasoprzestrzennego, co prowadzi do skutecznego uruchomienia, która ma zastosowanie do danych maszyny nauki czasowo-przestrzennych. Nasze artykuły są dostępne online tutaj.

Dla rosyjskiego tłumaczenia tej strony internetowej kliknij tutaj.
Uczenie się skojarzeń i doskonały Wykresy

Nauka z uogólnioną skojarzeń

Jesteśmy zainteresowani w zastosowaniu uogólnionej dopasowania i innych metod kombinatorycznych / wykresu teoretyczne problemów uczenia maszynowego. Dopasowanie jest ważnym narzędziem w wielu dziedzinach i ustawień. Jednym znanym przykładem uogólnionej dopasowania jest system AdWords firmy Google, która w przybliżeniu odpowiada reklamodawców do wyszukiwanych haseł (AdWords generuje znaczną część przychodów firmy Google). Do niedawna, dobieranie miała ograniczony wpływ na uczenie maszynowe. W ciągu ostatnich 5 lat, wprowadziliśmy i zbadać powiązania pomiędzy problemami uczenia maszynowego i ogólnego dopasowania. W 1965 roku Jack Edmonds zaczął pionierskiej pracy do kombinatoryki dopasowania, a wielu rozszerzeń, w tym b-dopasowania. Praca ta otrzymała następujący cytat podczas składania Edmonds ‘z 1985 John von Neumann Theory Prize, Jack Edmonds był jednym z twórców dziedzinie optymalizacji kombinatorycznej i polihedralne kombinatoryki. Jego 1965 papieru “Paths, drzew i kwiaty” był jednym z pierwszych dokumentów, aby sugerować możliwość ustanowienia matematyczną teorię efektywne algorytmy kombinatoryczne.

Skojarzeń oraz uogólnione skojarzeń są rodziną wykresów (takich jak drzewa), które cieszą się fascynujące Kombinatoryka i szybkich algorytmów. Matching idzie przez wiele nazw i odmian, w tym permutacji (lub permutacji-niezmienności), cesja, aukcji, wyrównanie, korespondencji, dwustronny dopasowywania, unipartite dopasowywania, dopasowywania i b uogólnionej dopasowywania. Grupa skojarzeń jest nazywana grupą symetryczną w algebrze. Wprowadziliśmy wykorzystanie dopasowanie problemy uczenia maszynowego i pokazał jak to poprawia stan techniki w problemach uczenia maszynowego, takich jak klasyfikacja, grupowanie, semisupervised nauki, filtrowanie współpracy, śledzenia i wizualizacji. Pokazaliśmy również, jak dopasowanie prowadzi do teoretycznych i algorytmicznych przełomu w ocenie MAP, sieci bayesowskie i modelowania graficznego, które są ważne tematy w uczeniu maszynowym.

Początkowo zbadać dopasowanie z perspektywy widzenia komputerowego, gdzie było już popularne narzędzie. Na przykład, aby porównać dwa obrazy dla celów uznania, naturalne jest, aby najpierw dopasować pikseli lub poprawek w obrazach rozwiązując problemu dwustronnego dopasowania. Najpierw zbadać pasujące do tego typu dostosowania obrazu i przeplatane go do bez nadzoru i nadzorować problemy w nauce. Na przykład, zbadaliśmy dopasowania ciągu bez nadzoru Gaussa modelowania i analizy składowych głównych ustawień (ICCV 03, AISTAT 03 COLT 04). Mamy również zbadać dopasowanie w ramach klasyfikacji wg kernela, które były niezmienne do korespondencji (ICML 03), które były niezmienne klasyfikatorów do permutacji (ICML 06b). Metody te znacznie lepiej niż inne rozwiązania, zwłaszcza w zbiorach danych obrazu, gdy zdjęcia były reprezentowane zestawów wektorowej lub worki pikseli (ICCV 03). Papier Kernel między Zestawy wektorów (ICML 03) zdobył nagrodę na Międzynarodowej Konferencji na temat uczenia maszynowego w 2003 roku na łączną kwotę 370 zgłoszonych prac. Biorąc pod uwagę, empiryczne sukces dopasowania problemami obrazu, możemy rozważyć jego zastosowanie do innych problemów, uczenia maszynowego. Jednym z kluczowych wgląd było to, że dopasowanie aktów jako ogólne narzędzie do włączania danych na wykresach. Gdy dane jest w postaci wykresu, wiele problemów uczenia maszynowego może być obsługiwana bezpośrednio przez algorytmy ze społeczności teorii grafów. Zaczęliśmy pionierem wykorzystania b-dopasowania, naturalne rozszerzenie do dopasowania w różnych problemów uczenia maszynowego. Pokazaliśmy, jak można doprowadzić do stanu wyników sztuki w wizualizacji lub wykresu zatapiania (ICML 09, AISTATS 07D), klastry (ECML 06), klasyfikacja (AISTAT 07B), semisupervised nauki (ICML 09b), filtrowanie współpracy (KPI 08B) i śledzenia (AISTAT 07a).

Początkowo były motywowane KDD 2005 Challenge, który był konkurs organizowany przez CIA i NSA do klastra anonimowych dokumentów przez autora. Za pomocą b-dopasowanie przed widmowych algorytmów grupowania, uzyskaliśmy najlepsze średnią dokładność w konkursie ER1B w konkurencji z 8 finansowanych zespołów z różnych innych uczelni. Praca została opublikowana w czasopiśmie niejawnych (Jebara, Szczogolew i Kondor w JICRD 2006) oraz związanych z nimi publikacji niesklasyfikowanych można znaleźć w (ECML 06). Prosty sposób widzenia przydatności b-dopasowania jest postrzeganie go jako zasadniczy konkurenta do najbardziej popularnych i najprostszych algorytmów uczenia maszynowego: k-najbliższych sąsiadów. Na przykład, należy rozważyć podłączenie punkty na rysunku poniżej za pomocą 2-najbliższych sąsiadów-. Typowo, podczas obliczania k najbliższego sąsiadów, wiele węzłów faktycznie więcej niż k sąsiadów, ponieważ oprócz wyboru k sąsiadów, każdy sam węzeł może być wybrana przez inne węzły w trakcie procedury chciwi. Ta sytuacja jest przedstawiona na rysunku (a). Dokonano tu kilku dwa zestawy danych w pierścieniu są pokazane i powinny być łączone w dwóch widocznych składników: pierścień wewnętrzny i pierścień zewnętrzny. Jednakże, gdy promień mniejszego oczka jest podobny do promienia, natomiast większe pierścienia lub gdy liczba próbek w każdym pierścieniu jest niska, K-najbliższych sąsiadów-nieprawidłowo odzyskania połączenia dwóch pierścieniową. To dlatego, że węzły w mniejszym pierścieniem wewnętrznym przeboleć wybrane przez węzły w pierścieniu zewnętrznym i ostatecznie mają duże dzielnice. Ostatecznie algorytm k-najbliższego sąsiada nie regularnego wykresie jako wyjście i stopnia wielu węzłów (zwłaszcza od strony wewnętrznej pierścienia) jest większa niż k. Ta nieprawidłowość k najbliższego sąsiadów może się wykładniczo gorzej w wyższych zbiorów danych przestrzennych, jak pokazano (Devroye i Wagner, 1979). To ogranicza moc stabilność i uogólnienie k-najbliższych sąsiadów przez tzw całuje liczby w d-wymiarowej przestrzeni. Przeciwnie, metody b-dopasowanie gwarantuje, że naprawdę regularne wykres (minimalnej łącznej długości krawędzi) jest wytwarzana. Rysunek (b) pokazuje wyjście b-dopasowania i na tym oczywiste jest, że każdy węzeł ma dokładnie 2 sąsiadów. Nawet nie widmowej grupowanie tych dwóch odciąć pierścienie na niektóre skale i konfiguracji próbkowania.

Po pokazaniu, jak dopasowanie poprawia widmową klastrów w praktyce (ECML 06), zbadano jej wykorzystania w innych warunkach uczenia maszynowego. Na przykład w (AISTAT 07B) pokazaliśmy, jak można to wykonać bardziej dokładnej klasyfikacji niż k-najbliższych sąsiadów, nie wymaga znacznie więcej obliczeniowej. W problemów wizualizacyjnych gdzie wysokie zbiory danych wymiarowe są zwykle przekształcony k-najbliższy sąsiad wykresy przed niskim wbudowania wymiarowej (AISTATS 07D), pokazaliśmy, jak b-pasujące plony bardziej zrównoważony i bardziej wierni łączność wizualizacje (Snowbird 06, ICML 09). Struktura papieru ostatnie Zachowanie Osadzanie zdobył nagrodę dla najlepszego papieru na Międzynarodowej Konferencji w sprawie uczenia maszynowego w 2009 roku na łączną kwotę 600 zgłoszonych prac. Ponadto, w semisupervised uczenia się i tak zwanych metod wykresu przewodzenia (ICML 08) pokazaliśmy, jak b dopasowywania stale zwiększa dokładność (ICML 09b). W wspólnych problemów filtrowania, zastosowano uogólnienie b-dopasowania, gdzie każdy węzeł nie musi mieć stałego stopnia B, ale raczej żadnej dostosować rozkład na stopniach i to dało dokładniejsze wyniki rekomendację (KPI 08B). Wreszcie, zdając sobie sprawę, że skojarzeń tworzą skończoną grupę w algebrze zwanej grupy symetrycznej, udało nam się zastosowanie narzędzi grupy teoretyczne takie jak przekształca uogólnione szybkiej transformaty Fouriera w celu rozwiązania problemów ponad rozkładów na skojarzeń (07a) AISTAT. Takie rozmieszczenie nad skojarzeń są użyteczne w monitorowaniu wielu celów, ponieważ w każdym punkcie czasowym, tożsamość obecnych celów powinna być dopasowana do wcześniej gąsienicowych trajektorii. Jednak, ponieważ jest n! skojarzeń, rozkłady te muszą być ograniczone pasmo za pomocą analizy Fouriera pozostać wydajne (wielomian). Według naszej wiedzy, jest to pierwsze zastosowanie teorii grup do skojarzeń w uczeniu maszynowym i czy ustawienia śledzenia i doprowadziły do ​​poprawy w porównaniu z poprzednimi metodami.

Matching, MAP Oszacowanie i Wiadomość Podania

Jedną z przeszkód w stosowaniu półki pasujące rozwiązują uogólnione problemy w uczeniu się prawdziwa maszyna jest czas obliczeń. Na przykład, najszybsze rozwiązują z kombinatorycznej optymalizacji były zbyt społeczności wymagających obliczeniowo do obsługi więcej niż kilkaset punktów danych (ECML 06). To doprowadziło nas do budowania własnych algorytmów rozwiązywania b-skojarzeń próbując ogólnie szybki podejście uczenia maszynowego znany jako przekazywanie komunikatów (lub rozmnażania którym wiara jest używane zamiennie tutaj). Metoda ta jest bardzo popularna w problemy uczenia się maszyn i jest stosowany do wykonywania przybliżoną wnioskowania w modelach graficznych i rozkładających rozkładów prawdopodobieństwa. W (AISTAT 07B), zdaliśmy sobie sprawę, że problemy z b-pasujące można zapisać w postaci graficznej modelu, funkcja gęstości prawdopodobieństwa, że ​​rozkłada się w produkt o klik w rozrzedzony wykresie. Aby znaleźć maksymalnie posteriori (MAP) oszacowanie tego graficznego modelu wdrożyliśmy Message Passing, sprytny i szybki sposób na zbliżenie problemu b dopasowywania poprzez wysłanie wiadomości wzdłuż wykresu. Przekazywanie wiadomości prace do oceny MAP na strukturze drzewa modeli graficznych, ale tylko daje przybliżone odpowiedzi na modelach graficznych z pętli. Ponieważ model graficzny b-dopasowanie miał wiele pętli, mogliśmy mieć nadzieję była niedostateczna konwergencji raz na jakiś czas. O dziwo, przekazywania wiadomości na ten loopy modelu graficznego wydajnie wytwarzać prawidłową odpowiedź cały czas. Wydaliśmy dowód gwarantujący wydajną i dokładną zbieżność przekazywanie komunikatów problemów b-w celu dopasowania (AISTAT 07B), i pokazał jeden z nielicznych przypadków, gdzie optymalności jest provably zachowanych pomimo pętli w modelu graficznego. Optymalności wiadomości przechodzącej przez drzewa (1988) i Pearl wykresach pojedynczej pętli (Weiss 2000) były znane wcześniej jednak rozszerzenie do b-dopasowanie stanowi ważny przypadek szczególny. To był znaczący od zdefiniowania, jakie modele graficzne przyznać, dokładnie wnioskowania była otwarta i ekscytujący obszar badań w dziedzinie uczenia się maszyny (i innych społeczności, takich jak dekodowanie) przez wiele lat. Modele graficzne odpowiadające dopasowania, b-dopasowania i ogólnego dopasowania zakresie znanym gwarancji poza drzewami i pojedynczych wykresów pętli do szerszego zestawu modeli i problemów. Dziś połączenie między przekazywanie komunikatów i dopasowywania jest obiecujący obszar badań teoretycznych z wkładów od wielu badaczy teorii (Bayati, Shah i Sharma 2005 Sanghavi, Malioutov i Willsky 2008, jak również Wainwright i Jordanii 2008).

Jednocześnie kilka zastosowane naukowcy pobrali nasz kod (dostępne online) i są skutecznie rozwiązywania problemów na dużą skalę (dwustronny i unipartite) b-dopasowywania wykorzystujący wiadomość przejściu. Nasz grupa wykorzystuje kod regularnie wielu dokumentach opisano w poprzednim rozdziale. W naszym oryginalnym artykule udowodniliśmy, że algorytm wymaga O (n ^ 3) czas na rozwiązywanie maksymalna waga b-skojarzeń na gęstych wykresach o n węzłach jeszcze empirycznie nasz kod wydaje się być o wiele bardziej efektywne. Ostatnio (Salez i Shah 2009) udowodnił, że w łagodnych założeniach metody przekazywania wiadomości podjąć O (n ^ 2) w gęstych wykresach. Wynik ten wskazuje, że nasz wykonania jest jednym z najszybciej się i stosuje się do problemów o podobnej wielkości jak K-najbliższych sąsiadów. Obecnie pracujemy na innych gwarancji teoretycznych dla b-dopasowanie pod względem jego wydajności generalizacji, gdy stosowane niezależnie próbą danych. Aby to zrobić, staramy się scharakteryzować stabilność b-dopasowywania porównaniu do k-najbliższych sąsiadów przez następujące podejście (Devroye i Wagnera 1979), które powinny przynieść gwarancji teoretyczne jego dokładności w ustawieniach uczenia maszynowego.

Skojarzeń, Drzewa i Idealne Wykresy

Skojarzeń, B-skojarzeń oraz uogólnione skojarzeń są tylko rodziny grafów w przestrzeni wszystkich możliwych niekierowanego wykresów na n węzłów. Istnieje n! możliwych skojarzeń i jeszcze więcej możliwych b-skojarzeń. O dziwo jednak, maksymalne skojarzeń waga może być odzyskana skutecznie albo przy wykorzystaniu algorytmu Edmonds ‘lub za pomocą pasujące zorganizowany graficznych modeli, które przyznają dokładne wnioskowanie poprzez przekazywania wiadomości. Podobnie, istnieje n ^ (n-2) drzewa i drzewa strukturze modele graficzne przyznają dokładne wnioskowanie poprzez przekazywania wiadomości.

Pracowaliśmy na drzewie strukturę modelowania graficznego w różnych ustawieniach, ponieważ z tych ciekawych obliczeniowych zalet. Na przykład w (UAI 04), opracowaliśmy hierarchii drzewa układów dynamicznych, które pozwalają na efektywne zorganizowanego średnią wnioskowania pola. To były przydatne do śledzenia wieloczynnikowej szeregów czasowych i innych stosowanych danych czasowych. Inną godną uwagi właściwością drzew jest to, że sumowanie przez rozkład na całej N ^ (n-2) drzewa mogą być wykonane w czasie sześcienny wykorzystaniem twierdzenia Kirchhoff ‘a TUTTE’S. W (KPI 99) zaproponowaliśmy wnioskowania nad dystrybucją wszystkich możliwych niekierowanego drzew ponad n węzłów przy użyciu drzewa macierz twierdzenie Kirchhoff w. W (UAI 08) opracowaliśmy wnioskowania nad dystrybucją wszystkich możliwych się skierowanych drzew ponad n węzłów przy użyciu drzewa macierz twierdzenie tutte w. Metody te są przydatne w modelowaniu danych, takich jak sejf IID danych filogenetycznych, rozprzestrzeniania się chorób, modeli język arborescence i tak dalej.

Nie tylko drzewa mają fascynujące właściwości kombinatorycznych i obliczeniowych, prowadzą do istotnych wyników empirycznych dotyczących rzeczywistych problemów, uczenia maszynowego. Podobnie, nie tylko skojarzeń mają właściwości kombinatorycznych i fascynujące obliczeniowych, prowadzą do istotnych wyników empirycznych dotyczących rzeczywistych problemów, uczenia maszynowego. Czy jest jakiś większy rodzina wykresów, które podsumowuje te dwie rodziny wykresów? Ta odpowiedź jest twierdząca i prowadzi do najbardziej ekscytujących temat w kombinatoryki: doskonałych wykresów. W (UAI 09) byliśmy pierwszy zidentyfikować ten punkt kontaktowy między doskonałych wykresów i uczenia maszynowego i probabilistycznego wnioskowania.

Ostatnio, matematycy i Kombinatoryka eksperci mieli przełom w swojej dziedzinie poprzez pracę (Chudnovsky i wsp. 2006), który okazał się dziesięcioleci stare silne przypuszczenie idealne opracowanych algorytmów wykres i do testowania wykresy celu ustalenia, czy są one idealne. Pokazaliśmy, że doskonałe wykresy mają istotne znaczenie w zakresie uczenia maszynowego i dekodowania używając doskonałe wykresy w celu identyfikacji, gdy wnioskowanie w ogólnych modeli graficznych jest dokładna i kiedy może być rozwiązany poprzez przekazywanie komunikatów sprawnie (UAI 09). Odbywa się to poprzez konwersję modeli graficznych (z pętli) i problem szacowania odpowiednią mapę do tego, co nazywamy NAND Markowa losowo pola. Topologii tej konstrukcji jest następnie efektywnie rozpoznano, czy stanowi ona doskonały wykres. Jeśli to jest rzeczywiście doskonały, a następnie oszacowanie MAPA gwarantuje dokładne i skuteczne, a komunikat przejście zapewni optymalne rozwiązanie. To uogólnienie znane wyniki na drzewach i wyniki na ogólnych skojarzeń do większej klasy doskonałych wykresów. Określenie, jakie modele graficzne przyznać, dokładnie wnioskowania była otwarta i ekscytujący obszar badań w dziedzinie uczenia się maszyny (i innych społeczności, takich jak dekodowanie) przez wiele lat. Idealne teoria grafów jest obecnie cennym narzędziem w arsenale pola. Ta ostatnia praca rozciąga graficzny model i Bayesa gwarancji wnioskowania sieci, które są znane na temat drzew i skojarzeń z bardziej ogólnym i bardziej fundamentalne rodziny doskonałych wykresów.
Dyskryminujące i Nauka Generatywna

Przed naszej pracy w skojarzeń i wykresów, zaczęliśmy przyczyniając się do uczenia maszynowego, łącząc dyskryminacyjną (duży margines) uczenia się generatywnych (probabilistyczne) modeli. Społeczność uczenie maszynowe miał dwie szkoły myślenia: metody dyskryminacyjną (takich jak duży margines wsparcia uczenia klasyfikacji wektora generatywne) i metod (takich jak sieci Bayesa, Bayesa nauki (Pattern Recognition 00) i oszacowanie gęstości prawdopodobieństwa). Modele generatywne podsumowywać dane i są bardziej elastyczne, ponieważ lekarz może wprowadzić różne warunkowe założenia niezależności, priors, ukrytych zmiennych i mnóstwo założeń parametrycznych. Tymczasem modele dyskryminacyjne dowiedzieć się tylko z danych, aby dokładnie wejście do przewidywania wyników i oferują mniej modelowania elastyczność, ograniczając lekarza do zbadania metod jądra, które mogą być mniej naturalne.

Połączenie nauki generatywnej i dyskryminacyjnej została zbadana w książce (Jebara 04) i pod warunkiem, kilka narzędzi do łączenia tych celów. Są w tym wariacyjna warunkowego podejścia do szacowania prawdopodobieństwa maksymalnej (KPI 98, chwytach 00), jak również maksymalną dyskryminacji entropii lub MED (KPI 99, UAI 00, ICML 04). Metody te pracują bezpośrednio z modeli jeszcze oszacować parametry generatywnej modeli “w celu zmniejszenia błędu klasyfikacji i maksymalizacji marży wynikowego klasyfikatora jest. W rzeczywistości, podejście MED podsumowuje maszyn wektorów nośnych oraz prowadzi do istotnych rozszerzeń SVM za pomocą maszyny probabilistyczne. Powyższe ramy MED doprowadziło do pierwszej metodzie SVM wypukła wielozadaniowej który wykonuje wspólną cechę, a wybór jądra podczas szacowania wielu klasyfikatorów SVM (ICML 04 JMLR 09). Podobnie, niestacjonarny wybór jądra i klasyfikacja z ukrytych zmiennych jest również możliwe do uzyskania przy użyciu tej ramy (ICML 06). W obecnej pracy, badamy warianty stożkowym wyboru kernela mieszaniny przemian nauki, metody, która również podsumowuje jądra SVM (KPI 07 nauka).

Innym podejściem do łączenia nauki dyskryminacyjną i generatywny jest stosowanie rozkładów prawdopodobieństwa, tworząc jądra, które następnie są wykorzystywane bezpośrednio standardowych dużych algorytmy uczenia margines, takich jak maszyny wektorów nośnych. Zaproponowaliśmy jądra produktów prawdopodobieństwo (03 COLT ICML 03 JMLR 04) i (KPI 06 hyperkernels), które wiążą się całkę dwóch funkcji prawdopodobieństwa na przestrzeni próbki. Jądro to jest powinowactwo odpowiada rozbieżności Hellingera. Takie podejście pozwala jądra być zbudowany z wykładniczej modeli rodziny, mieszanek, sieci bayesowskie i ukrytych modeli Markowa. Od tego czasu, inni badacze rozszerzyć ten pomysł i rozwinięte jądra z prawdopodobieństw poprzez inne rozbieżności informacji poza rozbieżności Hellingera.

Podczas gdy duża oszacowanie marża doprowadziło do konsekwentnej poprawy dokładności klasyfikacji modeli probabilistycznych generatywnej i jądrach, nasza najnowsza praca badała nawet bardziej agresywne kryteriów dyskryminacyjnych. To doprowadziło do bardziej wydajnego kryterium dyskryminacji nazywamy duży margines względną. Nie, marża utworzona przez klasyfikatora jest maksymalna, a jednocześnie kontroli rozprzestrzeniania się prognoz danych na klasyfikacji. Praca ta doprowadziła do znaczącej poprawy nad wykonywaniem maszyn wektorów nośnych bez żadnych dodatkowych założeń dotyczących danych. Rozszerzenie dużych podejść marży do względnej przypadku marży jest proste, skuteczne, ma teoretyczne i empiryczne gwarancje dobre wyniki (AISTATS 07C, chwytach 08). Obecnie badamy jego zastosowania do dużych depozytów zabezpieczających strukturę problemów prognozowania, wariantów zwiększenie, jak również oceny jeszcze bardziej dyskryminujące modeli generatywnych.
Zastosowania

Oprócz powyższej fundamentalnej pracy uczenia maszynowego, jesteśmy również dedykowane do rzeczywistych aplikacjach uczenia maszynowego i jego szerokie skutki dla przemysłu i innych dziedzin. W starszej pracy, stworzyliśmy komputerowy systemy wizyjne inspirowane-learning, że maszyna osiągnięte najskuteczniejsze działanie rozpoznawania twarzy, a uzyskane wyróżnienie od Stowarzyszenia Pattern Recognition (Rozpoznawanie 00, chwytach 98b). Mamy również pracował na bardzo cytowanych (300 cytowań) osoba oparte śledzenia wzroku (CVPR 97), systemy rozpoznawania zachowań (ICVS 99), jak również mobilny i poręczny computing (ISWC 97, IUW 98). Na początku 2006 roku pomogliśmy znaleźć sens Networks startowy, który dotyczy nauki lokalizacji i maszyny do telefonów komórkowych danych. Inne firmach jesteśmy zaangażowani w to Agolo, Ninoh i Bookt.

Comments are closed.