Neue Blog-Serie – Erinnerungen eines TorchVision-Entwicklers PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Neue Blog-Reihe – Memoiren eines TorchVision-Entwicklers

Neue Blog-Reihe – Memoiren eines TorchVision-Entwicklers

Ich beginne eine neue Blog-Beitragsreihe über die Entwicklung der Computer-Vision-Bibliothek von PyTorch. Ich habe vor, interessante kommende Funktionen hauptsächlich von zu besprechen TorchVision und sekundär aus dem PyTorch-Ökosystem. Mein Ziel ist es, neue und in der Entwicklung befindliche Funktionen hervorzuheben und Klarheit darüber zu schaffen, was zwischen den Veröffentlichungen passiert. Obwohl sich das Format im Laufe der Zeit wahrscheinlich ändern wird, habe ich zunächst vor, es mundgerecht zu halten und Referenzen für diejenigen anzubieten, die tiefer in die Materie eintauchen möchten. Anstatt Artikel in festen Abständen zu veröffentlichen, werde ich schließlich Beiträge veröffentlichen, wenn ich genug interessante Themen zu behandeln habe.

Haftungsausschluss: Die behandelten Funktionen werden auf Themen ausgerichtet sein, die mich persönlich interessieren. Das PyTorch-Ökosystem ist riesig und ich habe nur einen winzigen Teil davon im Blick. Das Verdecken (oder Nichtverdecken) einer Funktion sagt nichts über ihre Bedeutung aus. Die geäußerten Meinungen sind ausschließlich meine eigenen.

Nachdem das geklärt ist, schauen wir mal, was da kocht:

Etikettenglättung für CrossEntropy Loss

Eine stark nachgefragte Funktion von PyTorch ist Unterstützung weicher Ziele und Fügen Sie eine Option zur Etikettenglättung hinzu im Kreuzentropieverlust. Beide Funktionen zielen darauf ab, die Etikettenglättung zu vereinfachen, wobei die erste Option mehr Flexibilität bietet, wenn Datenerweiterungstechniken wie z verwechseln/Schnittmix werden verwendet und der zweite ist für die einfachen Fälle leistungsfähiger. Die Soft-Targets-Option war bereits vorhanden auf Master zusammengeführt von Joel Schlosser, während die Option label_smoothing ist entwickelt werden von Thomas J. Fan und wird derzeit überprüft.

Neuer Aufwärmplaner

Das Aufwärmen der Lernrate ist eine gängige Technik, die beim Training von Modellen verwendet wird, aber bisher bot PyTorch keine Standardlösung an. Kürzlich hat Ilqar Ramazanli eingeführt ein neuer Scheduler, der lineares und konstantes Aufwärmen unterstützt. Derzeit wird an der Umgehung gearbeitet Verbesserung der Kettenfähigkeit und Kombination bestehender Planer.

TorchVision mit „Batterien inklusive“

In dieser Hälfte arbeiten wir daran, beliebte Modelle, Verluste, Scheduler, Datenerweiterungen und andere Dienstprogramme in TorchVision hinzuzufügen, um hochmoderne Ergebnisse zu erzielen. Dieses Projekt trägt treffend den Namen „Alles dabei“ und ist derzeit in Bearbeitung.

Anfang dieser Woche habe ich eine neue Ebene hinzugefügt namens Stochastische Tiefe Dies kann verwendet werden, um Restzweige in Restarchitekturen zufällig zu löschen. Momentan arbeite ich daran Hinzufügen einer Implementierung der beliebten Netzwerkarchitektur namens Effizientes Netz. Schließlich ist es Allen Goodman zur Zeit Hinzufügen eines neuen Operators, der die Konvertierung ermöglicht Segmentierungsmasken zu Begrenzungsrahmen.

Weitere Funktionen in Entwicklung

Da wir davon ausgehen, dass wir ständig schrittweise Verbesserungen an der Dokumentation, der CI-Infrastruktur und der gesamten Codequalität vornehmen, möchte ich im Folgenden einige der „benutzerorientierten“ Aspekte hervorheben. Roadmap-Elemente die sich in der Entwicklung befinden:

Das ist es! Ich hoffe, Sie fanden es interessant. Alle Ideen, wie das Format angepasst werden kann oder welche Themen behandelt werden sollen, sind herzlich willkommen. Rufen Sie mich an LinkedIn or Twitter.

Zeitstempel:

Mehr von Bezugsbox