Perceptron, verletzend und PAC lernen.

Original: http://www.cs.columbia.edu/~rocco/papers/colt99.html


SIAM Journal on Computing 31(5), 2002, s. 1358 – 1369.
Vorläufige Version im Twelfth Annual Conference on Computational Learning Theorie (COLT), 1999, s. 296-307.

Zusammenfassung:

In diesem Papier analysieren wir das PAC Lernfähigkeit von mehreren einfachen iterative Algorithmen zum Erlernen von Schwellenwert für lineare Funktionen, sowohl positive als auch negative Ergebnisse erhalten. Wir zeigen, dass Littlestones verletzend Algorithmus keine effiziente PAC Lernalgorithmus für die Klasse der positive lineare Schwelle Funktionen. Wir beweisen auch, dass der PerceptronAlgorithmus effizient die uneingeschränkte Klasse der Schwellenwert für lineare Funktionen auch unter die gleichmäßige Verteilung auf booleschen Beispielen lernen kann. Wir zeigen jedoch, dass der Algorithmus kann effizient Perceptron PAClernen Klasse von verschachtelten Funktionen (eine KonzeptKlasse bekanntermaßen schwer Perceptron unter beliebigen Distributionen) unter die gleichmäßige Verteilung auf booleschen Beispiele. Schließlich geben wir einen sehr einfachen Perceptron-ähnlichen Algorithmus zum Erlernen von Ursprung zentriert Halfspaces unter die gleichmäßige Verteilung auf der Einheitskugel in $R ^ N.$im Gegensatz zu PerceptronAlgorithmus, der in Anwesenheit von Klassifizierung Lärm nicht lernen, der neue Algorithmus kann lernen, in Anwesenheit von monotonen Lärm (eine Verallgemeinerung der Klassifizierung Lärm). Der neue Algorithmus ist deutlich schneller als die vorherigen Algorithmen in der Einstufung und der monotone LärmEinstellungen.
PostScript oder PDFDatei des COLTPapier
PDF der Zeitschrift version

 

Comments are closed.