DeepSeekは2023年に設立され、世界をリードする汎用人工知能の基盤モデルと技術の研究に焦点を当て、最先端のAI課題に取り組んでいます。独自開発のトレーニングフレームワーク、自社構築のインテリジェントコンピューティングクラスター、そして数万のコンピューティングリソースを活用し、DeepSeek-LLM、DeepSeek-Coder、そして国内初のMoE大規模モデル(DeepSeek-MoE)など、数十億パラメータの大規模モデルをリリースし、オープンソース化しました。これらは公開評価や汎化効果において、同僚を超える優れたパフォーマンスを発揮しています。
