Dieses auf 14B Reasoning fokussierte Modell wurde entwickelt, um Mathematik-, Naturwissenschafts- und Codierungsprobleme mit klaren, schrittweisen Lösungen zu lösen. Trainiert mit überwachtem Feintuning und Verstärkungslernen auf spezialisierten Daten zur Argumentation, liefert es eine höhere Genauigkeit und transparente Gedankenzusammenhänge. Mit einem ~32K Token-Kontextfenster kann es technische Dokumente und komplexe Anweisungen analysieren, was es ideal für STEM-Fragen und -Antworten, Algorithmus-Extraktion und tutorialartige Unterstützung macht. Anfragen, die "Schritt für Schritt denken" verlangen, verbessern die Zuverlässigkeit. Beachten Sie, dass längere Lösungsketten die Latenz erhöhen können und die Leistung in Englisch am stärksten ist. Verwenden Sie zur Sicherstellung der Korrektheit in Produktionsabläufen die Verifizierung für Code- und Logikausgaben.
