私立大学最大のGPUスパコン基盤でAI教育と研究を加速

AIスキルを身につける最短ルートは実践にある。各種プロジェクト等へ積極的に参加し、多様な経験を積んでいる学生が、計算資源の制約にとらわれることなく学び続けられるようにする。それが世界で活躍できる優秀なAI人材の育成につながる。AIは今後全学部の学生が活用する技術である。

と、生野壮一郎教授がいう。東京工科大学は、AI教育と研究を加速させるため、NVIDIAのインフラとソフトウェアを用いて日本の私立大学最大のAIスパコンを構築し、今年10月に本格稼働させる。今回、生成AIやLLM(大規模言語モデル)など計算負荷の高いAIワークロードに対して比類なきパフォーマンスを提供するDGX B200システムを採用した。

同システムはAIによる変革を加速する究極のプラットフォーム――最新GPU/BlackwellAI Enterpriseソフトウェアを搭載。同大学では、12台のそれを高速ネットワークQuantum InfiniBandで接続し、DGX BasePODリファレンスアーキテクチャに基づいてスパコンを設計する。仕組み全体の学習理論性能(FP8:8ビット浮動小数点計算)が0.9EFLOPS(90京回/秒)に達するAIスパコンを学内に常設する。

スパコン導入後(2025年度以降)には、①AI活用人材の実践育成プログラム、②学内専用LLMの構築と活用、③AI倫理・ガバナンス検証環境(AI Ethics)、④デジタルツインプロジェクト(NVIDIA Omniverse活用)、⑤XAI(説明可能AI)によるAI倫理・法的信頼性研究、⑥大規模物理シミュレーションとAIを用いた物理現象の解析を予定している。

これにより同大学は、教育面において、学生が次世代のAI社会に対応できる実践的なスキルを習得するための環境整備を進め、研究面では、最先端のAI技術や高性能計算資源を活かした高度な課題解決を目指す。