Community Benchmark Hub

Hardware für lokale LLM-Workloads vergleichen

Entdecke öffentliche GPU- und NPU-Benchmark-Uploads, springe direkt in vorsortierte Ansichten und veröffentliche eigene reproduzierbare Ergebnisse mit Screenshots.

Direkter Einstieg

Finde den schnellsten Einstieg in die Benchmarks

Starte mit den neuesten Uploads, springe direkt in Ansichten für Geschwindigkeit und Effizienz, filtere auf Apple-Hardware oder stöbere in der Bestenliste.

Benchmarks

Neueste öffentliche Uploads ansehen

Starte mit den neuesten Ergebnissen und verfeinere die Liste von dort aus mit Filtern.

Ansichten

Prompt Processing

Vergleiche GPUs und NPUs nach Prompt-Durchsatz und sieh, welche Hardware für lokale LLMs lange Prompts und große Kontextfenster am schnellsten verarbeitet.

Ansichten

Token Generation

Sieh, welche GPUs und NPUs nach dem ersten Token die höchste Ausgabegeschwindigkeit liefern, wenn Streaming und schnelle Antworten entscheidend sind.

Ansichten

Effizienz pro Watt

Vergleiche GPUs und NPUs nach Token Generation pro Watt und finde Hardware für lokale LLMs, die hohe Geschwindigkeit mit geringerem Stromverbrauch verbindet.

Apple

Apple-Benchmarkergebnisse öffnen

Öffne die Benchmarkliste mit Apple als Vorauswahl und vergleiche die verfügbaren Ergebnisse direkt.

Bestenliste

Aktivste Uploader ansehen

Sieh, wer die meisten Ergebnisse beigetragen hat, und springe von dort direkt in passende Benchmark-Ansichten.

Schnelle Antworten

FAQ zu lokalen LLM-Benchmarks und der kommenden Software

Hier findest du die wichtigsten Antworten zu vergleichbaren Hardware-Ergebnissen, einheitlichen Tests und der kommenden LocalLLMBench Software auf einen Blick.

Was vergleicht LocalLLMBench?

LocalLLMBench vergleicht GPU- und NPU-Leistung für lokale LLMs anhand öffentlicher Benchmark-Ergebnisse, Filter und nachvollziehbarer Hardware- und Testdaten.

Warum ist ein einheitlicher Test wichtig?

Faire Hardware-Vergleiche brauchen reproduzierbare Messungen mit demselben Benchmark, idealerweise mit einem standardisierten Test wie Llama-Bench auf llama.cpp.

Kommt eine eigene Benchmark-Software?

Ja. Eine einfacher zu bedienende LocalLLMBench Software ist in Entwicklung, damit standardisierte Benchmarks leichter ausgeführt und für den Upload vorbereitet werden können.