Benchmarks
Neueste öffentliche Uploads ansehen
Starte mit den neuesten Ergebnissen und verfeinere die Liste von dort aus mit Filtern.
GPU & NPU Benchmarking
Menü
Community Benchmark Hub
Entdecke öffentliche GPU- und NPU-Benchmark-Uploads, springe direkt in vorsortierte Ansichten und veröffentliche eigene reproduzierbare Ergebnisse mit Screenshots.
Direkter Einstieg
Starte mit den neuesten Uploads, springe direkt in Ansichten für Geschwindigkeit und Effizienz, filtere auf Apple-Hardware oder stöbere in der Bestenliste.
Benchmarks
Starte mit den neuesten Ergebnissen und verfeinere die Liste von dort aus mit Filtern.
Ansichten
Vergleiche GPUs und NPUs nach Prompt-Durchsatz und sieh, welche Hardware für lokale LLMs lange Prompts und große Kontextfenster am schnellsten verarbeitet.
Ansichten
Sieh, welche GPUs und NPUs nach dem ersten Token die höchste Ausgabegeschwindigkeit liefern, wenn Streaming und schnelle Antworten entscheidend sind.
Ansichten
Vergleiche GPUs und NPUs nach Token Generation pro Watt und finde Hardware für lokale LLMs, die hohe Geschwindigkeit mit geringerem Stromverbrauch verbindet.
Apple
Öffne die Benchmarkliste mit Apple als Vorauswahl und vergleiche die verfügbaren Ergebnisse direkt.
Bestenliste
Sieh, wer die meisten Ergebnisse beigetragen hat, und springe von dort direkt in passende Benchmark-Ansichten.
Schnelle Antworten
Hier findest du die wichtigsten Antworten zu vergleichbaren Hardware-Ergebnissen, einheitlichen Tests und der kommenden LocalLLMBench Software auf einen Blick.
LocalLLMBench vergleicht GPU- und NPU-Leistung für lokale LLMs anhand öffentlicher Benchmark-Ergebnisse, Filter und nachvollziehbarer Hardware- und Testdaten.
Faire Hardware-Vergleiche brauchen reproduzierbare Messungen mit demselben Benchmark, idealerweise mit einem standardisierten Test wie Llama-Bench auf llama.cpp.
Ja. Eine einfacher zu bedienende LocalLLMBench Software ist in Entwicklung, damit standardisierte Benchmarks leichter ausgeführt und für den Upload vorbereitet werden können.