LGは今年、オープンソースとしてDeepseek R1レベルモデルを開始します
LGAI Research Instituteによると、LGAI Research Instituteは、中国の生成されたAI DeepSeekと同様の大規模な言語モデル(LLM)を開発し、今年オープンソースとしてリリースする予定です。
「すぐにDeepSeek R1レベルモデルを開発し、オープンソースとして起動します。政府がインフラ投資に関して具体的な措置を講じることを願っています」とBae氏は述べています。 「約200億から400億の予算(1381万ドルから2762百万ドル)で、毎年3〜4の大手言語モデル(LLM)を開発できます」と彼は言いました。
Bae副大統領は、ソウルのJung -Guで開催された国家AI委員会で開催された競争と評価の議論で、「2,480 NVIDIA H100 GPUがあれば、韓国のDeepseekなどのAIモデルを開発できますそうなるでしょう。」 「政府は、発電能力を備えた企業に投資し、今年以内にテクノロジーを検証し、次の段階計画を準備する必要があります。」しかし、LGには現在512 H100 GPUのみです。 Baeは、「LGは現在512 H100 GPUで開発されているが、速度の点では不利である」と指摘した。
Baeはまた、LG ElectronicsがDeepSeekよりも低コストでEXAONEを開発したと初めて述べました。 「昨年12月にオープンソースとしてリリースされた「EXA1 3.5」の32Bモデルの開発に70億ウォンを投資しました」と彼は言いました。この数字は、DeeseekによるV3モデルトレーニングに投資された600万ドル未満です。特別なアプリケーション向けに設計されたフロンティアグレードモデルとして分類されるEXAONE 32Bモデルは、320億パラメーターを持ち、高度な分析とソース選択を可能にするMSR(マルチステージ推論)関数を備えています。
Baeはまた、「EXA1 3.5には「専門家(MOE)テクニックの混合物があり、これはDeep Chicのコスト効果的な開発の成功の重要な要因でした」現在、LGグループのすべての従業員が使用しています。」彼は、「グループレベルを超えて世界を積極的に宣伝していたなら、私たちはより認識されることができただろう」と述べた。彼はまた、「グローバルな競争モデルの確立とビジネス価値の創造にもかかわらず、全国レベルで広報が不足しているにもかかわらず」と指摘した。
IITPのLLMパフォーマンスレポート(Institute for Information&Communications Planning&Aveluation)によると、Exaone 3.5はパフォーマンスの点でDeepseek V3のすぐ下にあります。ユーザビリティ、長いテキスト処理、コーディング、数学などのさまざまな分野での強力な能力を証明しており、グローバルなオープンソースAIモデルと競合しています。 LGは、すべての子会社に配布し、産業用アプリケーションへの更新を継続する予定です。 EXA1 3.5の前のモデルは、「Small3」、フランス、「Qwen 2.5-Max」、Alibaba、China、および「R1」、Deepseek、Open AI(Openai)の「O3-Mini」があります。
Baeはまた、LGがEXA1のインフラストラクチャに1兆ウォンを投資したと述べました。場合によっては、200億から400億の予算で十分です。」彼は次のように述べています。「単に展示AIモデルを作成するのではなく、実際の産業環境に適用できるコスト効果の高い開発に焦点を当てる必要があります。
源::아시아타임즈코리아