TT-Forge™

TT-Forge™はTenstorrentのMLIRベースのコンパイラーで、ドメイン固有のコンパイラーからカスタム・カーネル・ジェネレーターまで、様々なMLフレームワークで動作するように設計されています。

TT-Forge™ は、Tenstorrent の既存の AI ソフトウェア・エコシステムとネイティブに統合されているため、簡単に構築できます。

TT-Forge™

MLIR:AIコンパイルへの統一されたアプローチ

TT-MLIR コンパイラーは、高レベルのモデルや HPC ワークロードから Tenstorrent ハードウェア実行へのブリッジとして機能します。MLIR は、PyTorch、OpenXLA、JAX などのオープンソースのフレームワークとシームレスに統合され、コンパイルへの構造的なアプローチを可能にします。MLIRのエコシステムが拡大するにつれて、将来の統合の機会も広がっています。

MLIR:AIコンパイルへの統一されたアプローチ

革新のために設計された

オープンソースを念頭に構築された TT-Forge™ は、OpenXLA (JAX、Shardy)、LLVM の MLIR、torch-mlir、ONNX、TVM、PyTorch、TensorFlow などの主要テクノロジーと統合されています。

TT-Forge™ は、AI ワークロードのための柔軟で拡張可能な基盤を提供し、オープン・スタンダードとコミュニティ主導の開発により、高レベルのフレームワークと低レベルの実行を橋渡しします。ハードウェア実行では、TT-Forge™ はTenstorrentのAIソフトウェア・スタックを活用し、Tenstorrentハードウェア向けにワークロードを最適化します。

革新のために設計された
マルチフレームワーク・フロントエンド・サポートによる汎用性の拡大
tt-torch
tt-torch

tt-torch は MLIR ネイティブのオープンソース PyTorch 2.X と torch-mlir ベースのフロントエンドです。tt-mlir に stableHLO (SHLO) グラフを提供します。

PT2.XコンパイルによるPyTorchモデルの取り込みと、torch-mlir(ONNX->SHLO)によるONNXモデルの取り込みをサポートします。

また、PyTorchのグラフを個々の操作に分解し、並列化されたバグや見つからない操作の発見を容易にします。

tt-forge-fe
tt-forge-fe

TT-Forge-FEは、ディープラーニングモデルの計算グラフを最適化・変換し、性能と効率を向上させるために設計されたグラフコンパイラです。

TVM(tt-tvm)を介して、PyTorch、ONNX、TensorFlow、および類似のMLフレームワークの取り込みをサポートします。

TVM IRに基づき、異なるフレームワークからのグラフを個々の操作に分解することができ、モデル投入の手間をデータドリブンにします。

tt-xla
tt-xla

tt-xla は PJRT インターフェースを利用して、JAX(将来的には他のフレームワークも)、tt-mlir、Tenstorrent ハードウェアを統合します。

jit コンパイル経由で JAX モデルの取り込みをサポートし、StableHLO (SHLO) グラフを tt-mlir コンパイラーに提供します。

tt-xlaプラグインはJAXでネイティブにロードされ、tt-mlirコンパイラーとランタイムでJAXモデルをコンパイルして実行する。

特徴
最適化されたコンパイルとカスタム方言(TTIR、TTNN、TTKernel)により、効率的な実行が可能になり、Tenstorrentハードウェア上での推論とトレーニングのパフォーマンスを最大化します。tt-explorer によるパフォーマンスの最適化が簡素化されました。
パフォーマンス
最適化されたコンパイルとカスタム方言(TTIR、TTNN、TTKernel)により、効率的な実行が可能になり、Tenstorrentハードウェア上での推論とトレーニングのパフォーマンスを最大化します。tt-explorer によるパフォーマンスの最適化が簡素化されました。
TT-Forge™は複数のMLフレームワーク(PyTorch、JAX、TensorFlow、ONNX)とMLIR方言をサポートしており、多様なAIワークロードに対して幅広い互換性と柔軟性を確保し、将来的なフレームワークへの拡張も可能です。
一般性
TT-Forge™は複数のMLフレームワーク(PyTorch、JAX、TensorFlow、ONNX)とMLIR方言をサポートしており、多様なAIワークロードに対して幅広い互換性と柔軟性を確保し、将来的なフレームワークへの拡張も可能です。
Tenstorrentのツールチェーンは、MLモデルのコンパイル、最適化、実行を合理化します。MLIRベースのコンパイルから実行時の検査まで、これらのツールはTenstorrentハードウェア上での効率的な開発、デバッグ、パフォーマンスチューニングを可能にします。
ツール
Tenstorrentのツールチェーンは、MLモデルのコンパイル、最適化、実行を合理化します。MLIRベースのコンパイルから実行時の検査まで、これらのツールはTenstorrentハードウェア上での効率的な開発、デバッグ、パフォーマンスチューニングを可能にします。

TT-Forgeについてもっと知りたいですか?