Background

TT-Forge™

TT-Forge는 모델의 컴파일, 최적화, 디버깅 및 확장을 지원하는 Tenstorrent의 MLIR 기반 컴파일러 스택입니다. 현재 퍼블릭 베타 버전인 TT-Forge는 여러분이 직접 만들어가는 공간입니다. 새로운 기능을 제안하거나, 프로토타입을 제작하거나, 바운티(현상금) 프로그램에 참여해 보세요.

TT-Forge Architecture Diagram

혁신을 위한 설계

오픈 소스의 유연성을 위해 설계된 TT-Forge는 OpenXLA, MLIR, ONNX, TVM, PyTorch 및 TensorFlow와 연결됩니다. TT-Forge는 커스텀 실리콘에서 AI 워크로드를 구동하기 위한 모듈형 기반을 제공합니다. 또한 모델을 최적화된 IR로 변환하여 텐스토렌트(Tenstorrent)의 저수준 AI 하드웨어 SDK인 TT-NN 및 TT-Metalium에서 실행할 수 있도록 합니다.

tt-forge engineering diagram

왜 MLIR인가요?

MLIR은 모듈식이며 확장 가능하고 다단계 추상화를 지원합니다. 여러 프레임워크를 아우르며 사용자 정의 다이얼렉트를 지원하고, AI부터 HPC까지 모든 것을 처리합니다. MLIR의 유연한 설계 덕분에 TT-Forge는 새로운 연산(ops), 프레임워크 및 하드웨어 타겟을 신속하게 도입할 수 있습니다. MLIR 생태계가 확장됨에 따라 TT-Forge도 그와 함께 진화하고 있습니다.

Tenstorrent and MLIR logos
어디서든 모델을 가져오세요* (거의 다 가능함)
TT-XLA

TT-XLA

JAX 및 PyTorch를 이용한 단일 칩 프로젝트

TT-XLA는 JAX 및 PyTorch 모델을 Tenstorrent 하드웨어에서 컴파일하고 실행하기 위한 Tenstorrent의 PJRT 기반 브릿지입니다. 이는 StableHLO를 통한 적시(JIT) 컴파일을 지원하여 TT로 전달됩니다.

JAX의 네이티브 지원과 PyTorch/XLA를 통한 통합을 통해, TT-XLA는 기존 코드의 변경을 최소화하면서 모델을 Tenstorrent 하드웨어에서 실행할 수 있도록 컴파일하며, 멀티 칩 실행 기능도 지원합니다.

TT-Forge-FE

TT-Forge-FE

ONNX 및 TensorFlow를 활용한 멀티칩 프로젝트

TT-Forge-FE는 딥러닝 모델의 연산 그래프를 최적화하고 변환하기 위해 설계된 Tenstorrent의 프레임워크 독립형 프론트엔드입니다. TT-TVM을 기반으로 ONNX, TensorFlow 및 유사한 ML 프레임워크의 인입을 지원하여, 사용자의 모델을 Tenstorrent 하드웨어에 효율적으로 이식할 수 있도록 돕습니다.

특징
Optimized compilation 및 custom dialects (TTIR, TTNN, TTKernel)는 Tenstorrent hardware에서 inference performance를 극대화하여 효율적인 실행을 가능하게 합니다. tt-explorer를 통해 performance optimization이 간소화됩니다.
성능
Optimized compilation 및 custom dialects (TTIR, TTNN, TTKernel)는 Tenstorrent hardware에서 inference performance를 극대화하여 효율적인 실행을 가능하게 합니다. tt-explorer를 통해 performance optimization이 간소화됩니다.
TT-Forge™는 단순히 모델을 컴파일하는 데 그치지 않고, 모델이 실행되는 하드웨어를 이해합니다. TTIR과 같은 커스텀 Dialects와 TT-MLIR을 기반으로 구축된 컴파일러 스택을 통해 Tenstorrent의 아키텍처에 최적화되어 있으며, 그 결과 높은 Utilization, 효율적인 Memory 액세스, 그리고 여러 Chips에 걸친 확장 가능한 Performance를 제공합니다.
하드웨어 인지 컴파일
TT-Forge™는 단순히 모델을 컴파일하는 데 그치지 않고, 모델이 실행되는 하드웨어를 이해합니다. TTIR과 같은 커스텀 Dialects와 TT-MLIR을 기반으로 구축된 컴파일러 스택을 통해 Tenstorrent의 아키텍처에 최적화되어 있으며, 그 결과 높은 Utilization, 효율적인 Memory 액세스, 그리고 여러 Chips에 걸친 확장 가능한 Performance를 제공합니다.
Tenstorrent의 toolchain은 Tenstorrent hardware에서의 ML model compilation, optimization, 및 execution을 간소화합니다. 주요 tools에는 TT-Blacksmith (즉시 실행 가능한 training examples), TT-Explorer (model을 위한 시각적 performance analyzer), 및 TT-NPE (network-on-chip (NoC) simulator 및 profiler)가 포함됩니다.
도구
Tenstorrent의 toolchain은 Tenstorrent hardware에서의 ML model compilation, optimization, 및 execution을 간소화합니다. 주요 tools에는 TT-Blacksmith (즉시 실행 가능한 training examples), TT-Explorer (model을 위한 시각적 performance analyzer), 및 TT-NPE (network-on-chip (NoC) simulator 및 profiler)가 포함됩니다.

TT-Forge에 대해 더 자세히 알고 싶으신가요?