개발자
텐스토렌트 하드웨어에서 모델을 빠르게 가동하고 실행하는 방법을 알아보세요.
두 가지 오픈 소스 SDK를 사용하여 최대한 실물에 가깝게 만들거나, AI 컴파일러에 작업을 맡길 수 있습니다.

모델 지원 테이블
Qwen 3 32B
QuietBox
LLM
TP=8
QwQ 32B
QuietBox
LLM
TP=8
DeepSeek R1 Distill Llama 3.3 70B
QuietBox
LLM
TP=8
Llama 3.1 70B
Galaxy
LLM
TP=32
Llama 3.1 70B
QuietBox
LLM
TP=8
Llama 3.2 11B Vision
n300
LLM
TP=2
Qwen 2.5 7B
n300
LLM
TP=2
Qwen 2.5 72B
QuietBox
LLM
TP=8
Falcon 7B
n150
LLM
Falcon 7B
QuietBox
LLM
DP=8
Falcon 7B
Galaxy
LLM
DP=32
Falcon 40B
QuietBox
LLM
TP=8
Llama 3.1 8B
p100
LLM
Llama 3.1 8B
p150
LLM
Llama 3.1 8B
2 x p150
LLM
DP=2
Llama 3.1 8B
n150
LLM
Llama 3.2 1B
n150
LLM
Llama 3.2 3B
n150
LLM
Mamba 2.8B
n150
LLM
Mistral 7B
n150
LLM
Mixtral 8x7B
QuietBox
LLM
TP=8
BERT-Large
n150
NLP
Sentence-Bert (backbone: bert-base)
n150
NLP
Tenstorrent 시작하기
TT-Forge™
TT-Forge™는 Tenstorrent의 MLIR 기반 컴파일러입니다.
TT-NN™
TT-NN™은 Tenstorrent 하드웨어에서 ML 워크로드를 실행하기 위한 사용자 친화적인 API입니다.
TT-Metalium™
TT-Metalium™은 Tenstorrent의 오픈 소스, 로우 레벨 AI 하드웨어 SDK입니다.
다른 문서를 찾고 계신가요?
예정된 이벤트
Jul 16
Tech Talk Tokyo #2
Learn about data transfer and kernel programming at our second tech talk in Tokyo.
Jul 23
Building AI agents with Tenstorrent
Tenstorrent hardware is designed to optimize the operations that power AI. Learn how you can run models on Tenstorrent hardware to build multi-agent systems and workflows.
Aug 9
COSCUP 2025
Stop by our booth at the Conference for Open Source Coders, Users & Promoters (COSCUP), the largest open source conference in Asia.
교육용 콘텐츠
튜토리얼
서면 자습서
Bring up LLMs with TTNN
TT-Metalium 스택을 사용하여 Tenstorrent 하드웨어에서 고성능 멀티칩 모델을 불러오는 방법에 대한 안내를 받으세요.
Op Writer's Guide to Dispatch Overhead
이 튜토리얼에서는 디스패치 오버헤드 리소스 할당, 커널 초기화 및 런타임 인수를 최적화하는 다양한 방법을 다룹니다.
