Background

TT-Forge™

TT-Forge™はTenstorrentのMLIRベースのコンパイラーで、ドメイン固有のコンパイラーからカスタム・カーネル・ジェネレーターまで、様々なMLフレームワークで動作するように設計されています。

TT-Forge™ は、Tenstorrent の既存の AI ソフトウェア・エコシステムとネイティブに統合されているため、簡単に構築できます。

TT-Forge™

革新のために設計された

オープンソースを念頭に置いて構築されたTT-Forgeは、OpenXLA (JAX, Shardy)、LLVMのMLIRとtorch-mlir、ONNX、TVM、PyTorch、TensorFlowといった主要なテクノロジーと統合されています。

ハードウェアでの実行にあたり、TT-ForgeはTT-MetaliumとTT-NNを活用し、Tenstorrentのハードウェア向けにワークロードを最適化します。Tenstorrentの広範なオープンソースソフトウェアエコシステムの一部として、TT-ForgeはAIワークロードのための柔軟で拡張性の高い基盤を提供し、オープンスタンダードとコミュニティ主導の開発によって、高レベルのフレームワークと低レベルの実行を橋渡しします。

革新のために設計された

なぜMLIRなのか?AI コンパイルへの統一的アプローチ

MLIRは、PyTorch、OpenXLA、JAXなどのオープンソースフレームワークとシームレスに統合され、構造化されたコンパイルアプローチを可能にします。TT-MLIRコンパイラは、高レベルモデルやHPCワークロードからTenstorrentハードウェア実行への橋渡しの役割を果たします。さらに、MLIRは将来の統合に向けて急速に拡大するエコシステムを提供しています。

なぜMLIRなのか?AI コンパイルへの統一的アプローチ
マルチフレームワーク・フロントエンド・サポートによる汎用性の拡大
tt-torch
tt-torch

tt-torch は MLIR ネイティブのオープンソース PyTorch 2.X と torch-mlir ベースのフロントエンドです。tt-mlir に stableHLO (SHLO) グラフを提供します。

PT2.XコンパイルによるPyTorchモデルの取り込みと、torch-mlir(ONNX->SHLO)によるONNXモデルの取り込みをサポートします。

また、PyTorchのグラフを個々の操作に分解し、並列化されたバグや見つからない操作の発見を容易にします。

tt-forge-fe
tt-forge-fe

TT-Forge-FEは、ディープラーニングモデルの計算グラフを最適化・変換し、性能と効率を向上させるために設計されたグラフコンパイラです。

TVM(tt-tvm)を介して、PyTorch、ONNX、TensorFlow、および類似のMLフレームワークの取り込みをサポートします。

TVM IRに基づき、異なるフレームワークからのグラフを個々の操作に分解することができ、モデル投入の手間をデータドリブンにします。

tt-xla
tt-xla

tt-xla は PJRT インターフェースを利用して、JAX(将来的には他のフレームワークも)、tt-mlir、Tenstorrent ハードウェアを統合します。

jit コンパイル経由で JAX モデルの取り込みをサポートし、StableHLO (SHLO) グラフを tt-mlir コンパイラーに提供します。

tt-xlaプラグインはJAXでネイティブにロードされ、tt-mlirコンパイラーとランタイムでJAXモデルをコンパイルして実行する。

特徴
最適化されたコンパイルとカスタム方言(TTIR、TTNN、TTKernel)により、効率的な実行が可能になり、Tenstorrentハードウェア上での推論とトレーニングのパフォーマンスを最大化します。tt-explorer によるパフォーマンスの最適化が簡素化されました。
パフォーマンス
最適化されたコンパイルとカスタム方言(TTIR、TTNN、TTKernel)により、効率的な実行が可能になり、Tenstorrentハードウェア上での推論とトレーニングのパフォーマンスを最大化します。tt-explorer によるパフォーマンスの最適化が簡素化されました。
TT-Forge™は複数のMLフレームワーク(PyTorch、JAX、TensorFlow、ONNX)とMLIR方言をサポートしており、多様なAIワークロードに対して幅広い互換性と柔軟性を確保し、将来的なフレームワークへの拡張も可能です。
一般性
TT-Forge™は複数のMLフレームワーク(PyTorch、JAX、TensorFlow、ONNX)とMLIR方言をサポートしており、多様なAIワークロードに対して幅広い互換性と柔軟性を確保し、将来的なフレームワークへの拡張も可能です。
Tenstorrentのツールチェーンは、MLモデルのコンパイル、最適化、実行を合理化します。MLIRベースのコンパイルから実行時の検査まで、これらのツールはTenstorrentハードウェア上での効率的な開発、デバッグ、パフォーマンスチューニングを可能にします。
ツール
Tenstorrentのツールチェーンは、MLモデルのコンパイル、最適化、実行を合理化します。MLIRベースのコンパイルから実行時の検査まで、これらのツールはTenstorrentハードウェア上での効率的な開発、デバッグ、パフォーマンスチューニングを可能にします。

TT-Forgeについてもっと知りたいですか?