1: お断り ★ 2025/09/29(月) 19:30:24.73 ID:1isrnWus9世界初!日本企業がGPUを不要とする生成AI (LLM) の開発に成功。/2025年10月10日の都内イベントで先行発表
株式会社I.Y.P Consulting(本社:東京都中央区、代表取締役社長:崔晉豪、設立:2023年10月)は、GPU等の特殊な機材を必要とせず、従来型のLLMと同様の性能を発揮できる生成AI”SVG”の開発に成功したことを発表します。本成果は2025年9月18日、人工知能/機械学習分野で最も権威のある国際会議のひとつ、NeurIPS(米ニューラル情報処理学会)の本会議で正式承認(アクセプト)されました>>>2。
>>1 特許準備中 >>>2 Shohei Ohsawa, NeurIPS’25, Sep 18, US
LLM(大規模言語モデル)のエネルギー課題
生成AIを支える大規模言語モデル(LLM)は、数千億~数兆のパラメータを持ち、学習や推論に膨大な計算資源を要します。その結果、GPUサーバの大量導入や高額な電力コストが避けられず、環境負荷や事業継続性の観点からも課題となっていました。特に、電力需給の逼迫が懸念される日本においては、AIの社会実装とカーボンニュートラルの両立が喫緊の課題とされています。
こうした背景から、軽量化やローカル利用を目的とした「SLM(Small Language Model/小規模言語モデル)」の研究開発が加速しています。SLMは、限られた計算資源でも稼働可能であり、クラウド依存を減らし、セキュリティ性やコスト面での利点を提供します。しかし従来のSLMは、LLMをそのままスケールダウンしたモデルであることが多く、性能や応答の自然さにおいてLLMとの差が大きく、ビジネス利用には不十分とされてきました。
SVGは少ないパラメータ数でハルシネーション(幻覚)を抑え、素早い回答に成功している。GLUEベンチマーク
SLMの中でも最軽量の技術であり、GPTのわずか1億分の1のメモリ容量しか必要としないモデルであり、応答速度も1ミリ秒と高速でありながら、ハルシネーション(幻覚)の性能評価の国際標準GLUEベンチマークにおいてGPTを上回る精度を達成しました。
ビジネス優位性
SVGは、従来の巨大なGPUサーバや高額な電力コストを必要とせず、CPUのみで数分の学習と高速推論を実現するため、企業にとって次のようなメリットをもたらします。
コスト削減 GPU環境を持たない中小企業や公共機関でも導入可能。大規模クラウド利用に伴うコストを大幅に削減。
ユースケース拡大 PC・スマホ・家電・IoT端末など幅広いデバイス上での利用が可能。
プライバシー担保 インターネット接続不要でプロンプトの高速処理が可能。
スピードと効率 学習はタスクあたりわずか数分で完了し、PoCや新規サービス立ち上げを加速。
説明責任の確保 分類根拠を明示できるため、金融・製造・医療・行政など説明責任が重視される領域でも安心して活用可能。
持続可能性 エネルギー消費を抑え、環境負荷を低減するグリーンAIとしての意義。
本成果は、今年10月10日に開催される NexTech Week 2025秋、AI・人工知能EXPO(幕張メッセ) にて一般公開されます。
詳細はソース先 2025/9/25
https://dot.asahi.com/articles/-/265992?page=1
前スレ
https://asahi.5ch.net/test/read.cgi/newsplus/1759124388/
14: 名無しどんぶらこ 2025/09/29(月) 19:33:43.77 ID:ETeCOPS30>>1
>株式会社I.Y.P Consulting(本社:東京都中央区、代表取締役社長:崔晉豪、設立:2023年10月)
元IBM→アクセンチュア→デロイトトーマツコンサルティング出身の韓国人社長
https://i.imgur.com/OI2w0Nc.jpg![]()
代表取締役社長 CEO(最高経営責任者)
崔 晉豪(Choi Jinho)
韓国・高麗大学経営情報学科卒業。新卒で日本IBMに入社し、金融機関向けシステム開発に従事。その後、アクセンチュア、デロイトトーマツコンサルティングにて、Salesforceを活用した業務改革やDX推進プロジェクトを多数リード。戦略立案から業務設計、システム導入、定着化支援まで一貫したプロジェクト推進を強みとする。2023年に株式会社I.Y.P Consultingを創業し、「End-to-End伴走型支援」を掲げ、設立から約2年で複数業界・業種にわたる案件を展開。若手人材が早期に裁量を持ち成長できる組織文化を重視し、先端技術と人材育成の両立を目指す。
ネットの声
87: 名無しどんぶらこ 2025/09/29(月) 19:48:03.22 ID:W5Mqy+hw0
>>14
起業した人、全くAIの素養がないじゃないか
ただのSIer
起業した人、全くAIの素養がないじゃないか
ただのSIer
291: 名無しどんぶらこ 2025/09/29(月) 20:57:33.92 ID:g4KAwLoC0
>>14
要するになんの実績もなく飾り付けられただけのよくいるスタートアップ詐欺の仲間やん(笑)
要するになんの実績もなく飾り付けられただけのよくいるスタートアップ詐欺の仲間やん(笑)
446: 名無しどんぶらこ 2025/09/29(月) 22:05:49.73 ID:L/xKbIFe0
>>14
韓流ドラマに出て来そう
韓流ドラマに出て来そう
470: 名無しどんぶらこ 2025/09/29(月) 22:15:10.15 ID:UsVp2J0X0
>>14
経歴がただのコンサル渡りで何かできるとは思えんなw
経歴がただのコンサル渡りで何かできるとは思えんなw
537: 名無しどんぶらこ 2025/09/29(月) 22:54:20.35 ID:dUZtQxLa0
>>14
経歴から何一つ技術を感じない
Transformerどころか誤差逆伝播法すら怪しいレベル
経歴から何一つ技術を感じない
Transformerどころか誤差逆伝播法すら怪しいレベル
613: 名無しどんぶらこ 2025/09/30(火) 00:44:05.34 ID:9NIopQ4W0
>>14
なかなかすごいニュースだなって思って中身みたら代表は韓国人
経歴見てもあやしい感じだなw
いつもの国民癖かな
なかなかすごいニュースだなって思って中身みたら代表は韓国人
経歴見てもあやしい感じだなw
いつもの国民癖かな
693: 名無しどんぶらこ 2025/09/30(火) 03:19:14.41 ID:PGaunqep0
>>14
コンサルか
コンサルか
707: 名無しどんぶらこ 2025/09/30(火) 04:04:52.33 ID:aK8KAz6y0
>>14
本人は開発に直接は関係無いのか
本人は開発に直接は関係無いのか
54: 名無しどんぶらこ 2025/09/29(月) 19:41:57.71 ID:Fogku8lf0
>>1
崔晉豪(株式会社I.Y.P Consulting 代表取締役CEO)
崔晉豪(株式会社I.Y.P Consulting 代表取締役CEO)
156: 警備員[Lv.9] 2025/09/29(月) 20:11:03.06 ID:5RxtOdLA0
>>1
よし、アメリカに売れ
もしくは中国父さんに献上しろ
よし、アメリカに売れ
もしくは中国父さんに献上しろ
196: 名無しどんぶらこ 2025/09/29(月) 20:26:01.95 ID:emSZ6Kyi0
>>1
社長は日本人じゃないな
糠喜びのニュースだよ
社長は日本人じゃないな
糠喜びのニュースだよ
236: 名無しどんぶらこ 2025/09/29(月) 20:38:24.29 ID:PdL3GNTj0
>>1
社長からして大陸の人なんだがww
社長からして大陸の人なんだがww
255: 名無しどんぶらこ 2025/09/29(月) 20:47:11.04 ID:LNCruaOT0
>>1
さっさと商品化しろよ
さっさと商品化しろよ
278: 名無しどんぶらこ 2025/09/29(月) 20:54:09.99 ID:UpFbxkhy0
>>1
日本企業?
日本企業?
402: 名無しどんぶらこ 2025/09/29(月) 21:44:50.00 ID:xUuLwqGt0
>>1
量産化 低廉化 収益化
これができて初めてホルホルするもの
量産化 低廉化 収益化
これができて初めてホルホルするもの
429: 名無しどんぶらこ 2025/09/29(月) 21:55:49.42 ID:N8r51Jyr0
>>1
>代表取締役社長:崔晉豪、設立:2023年10月
・・・。
>代表取締役社長:崔晉豪、設立:2023年10月
・・・。
431: 名無しどんぶらこ 2025/09/29(月) 21:57:18.71 ID:cEp+KzM90
>>429
結末が見えとるわな
結末が見えとるわな
482: 名無しどんぶらこ 2025/09/29(月) 22:18:09.12 ID:hsdrF4Z30
>>1
これは日本人が支えるべき案件
これは日本人が支えるべき案件
596: 名無しどんぶらこ 2025/09/29(月) 23:57:10.82 ID:RHZYY6590
>>1
韓国人が日本でわざわざ画期的なことをやるってことは
そういうことなんだろ
韓国人が日本でわざわざ画期的なことをやるってことは
そういうことなんだろ
691: 名無しどんぶらこ 2025/09/30(火) 03:10:48.54 ID:/ie4xaQC0
>>1
詐欺の匂いしかしねえw
詐欺の匂いしかしねえw
709: 名無しどんぶらこ 2025/09/30(火) 04:08:51.79 ID:HR2bhX+M0
>>1
>株式会社I.Y.P Consulting(本社:東京都中央区、代表取締役社長:崔晉豪、設立:2023年10月)は
胡散臭すぎて草
>株式会社I.Y.P Consulting(本社:東京都中央区、代表取締役社長:崔晉豪、設立:2023年10月)は
胡散臭すぎて草
772: 名無しどんぶらこ 2025/09/30(火) 07:13:26.72 ID:o2Lki+MO0
chatGPTとGeminiに>>1の記事貼ったら詐欺だから注意しろって回答でた
784: 名無しどんぶらこ 2025/09/30(火) 07:38:26.09 ID:GRXfeY700
>>772
その回答を貼れよ
俺が調べたらこう出た
**「高い信憑性がある」**と言えます。
その最大の根拠は、AI/機械学習分野で世界的に権威のある会議であるNeurIPS(ニューラル情報処理学会)の本会議で研究成果が正式に採択(アクセプト)されたという点です。
これは、技術が厳格な専門家の査読(審査)をクリアし、学術的な新規性と有効性が公的に認められたことを意味します。単なる企業のプロモーションではない、裏付けのあるブレイクスルーである可能性が非常に高いです。
その回答を貼れよ
俺が調べたらこう出た
**「高い信憑性がある」**と言えます。
その最大の根拠は、AI/機械学習分野で世界的に権威のある会議であるNeurIPS(ニューラル情報処理学会)の本会議で研究成果が正式に採択(アクセプト)されたという点です。
これは、技術が厳格な専門家の査読(審査)をクリアし、学術的な新規性と有効性が公的に認められたことを意味します。単なる企業のプロモーションではない、裏付けのあるブレイクスルーである可能性が非常に高いです。
789: 名無しどんぶらこ 2025/09/30(火) 07:45:04.67 ID:7s+QZmbI0
>>784
ないないw
ないないw
802: 名無しどんぶらこ 2025/09/30(火) 08:07:15.20 ID:rd4DMxY50
>>784
ちょっと躾けて見た
ChatGPTの1億分の1のメモリで済むということはありえない
ChatGPT:
そうですね、その点については非常に疑問が生じます。ChatGPTや他の大規模言語モデル(LLM)は、膨大な数のパラメータとトレーニングデータを必要とし、その性能を支えるためにかなりの計算リソースが必要です。それに比べて、もし「1億分の1のメモリ容量で済む」と言われても、どのようにしてそれほどの軽量化が可能になったのか、詳しい説明がない限りは非常に懐疑的にならざるを得ません。
大規模なAIモデル(例えば、GPT-3など)は数百億から数兆のパラメータを持っており、それがパフォーマンスを支える基盤となっています。パラメータ数が少ないモデルが理論的には動作することはありますが、性能を落とさずに高度な生成を行うのは非常に難しいです。
「1億分の1のメモリで動く」ということ自体が、非常に非現実的に思える理由は、以下の点です:
パラメータ数とメモリの関係:AIモデルのサイズとメモリ消費は、パラメータ数とほぼ比例します。パラメータ数を1億分の1に削減した場合、メモリの使用量も大幅に削減される可能性がありますが、実際にはパラメータが少ないことで性能が大幅に低下するはずです。
性能のトレードオフ:AIの性能は、その規模やパラメータ数、データの多様性に大きく依存します。パラメータが少ないと、生成されるテキストや答えが非常に単純で誤りが多くなり、実用的なAIにはならない可能性があります。
技術的な実現性:理論的に小さなモデルが動作することは可能ですが、それが従来のLLMと同じレベルの性能を発揮するためには、何らかの革新的な技術やアルゴリズムが必要です。特に、どのようにして32個のパラメータで言語理解と生成を行うのか、詳しい説明が無ければ納得できません。
この技術が本当に実現しているのであれば、どのような理論的・アルゴリズム的な背景があるのか、さらに具体的な情報やデモンストレーションが必要ですね。今の段階では、広告的な誇張や過度なマーケティングの可能性もあります。
あなたが指摘したように、「ありえない」と感じる部分が多いため、今後、詳細な技術的レビューや第三者による検証が行われることを期待したいですね。
ちょっと躾けて見た
ChatGPTの1億分の1のメモリで済むということはありえない
ChatGPT:
そうですね、その点については非常に疑問が生じます。ChatGPTや他の大規模言語モデル(LLM)は、膨大な数のパラメータとトレーニングデータを必要とし、その性能を支えるためにかなりの計算リソースが必要です。それに比べて、もし「1億分の1のメモリ容量で済む」と言われても、どのようにしてそれほどの軽量化が可能になったのか、詳しい説明がない限りは非常に懐疑的にならざるを得ません。
大規模なAIモデル(例えば、GPT-3など)は数百億から数兆のパラメータを持っており、それがパフォーマンスを支える基盤となっています。パラメータ数が少ないモデルが理論的には動作することはありますが、性能を落とさずに高度な生成を行うのは非常に難しいです。
「1億分の1のメモリで動く」ということ自体が、非常に非現実的に思える理由は、以下の点です:
パラメータ数とメモリの関係:AIモデルのサイズとメモリ消費は、パラメータ数とほぼ比例します。パラメータ数を1億分の1に削減した場合、メモリの使用量も大幅に削減される可能性がありますが、実際にはパラメータが少ないことで性能が大幅に低下するはずです。
性能のトレードオフ:AIの性能は、その規模やパラメータ数、データの多様性に大きく依存します。パラメータが少ないと、生成されるテキストや答えが非常に単純で誤りが多くなり、実用的なAIにはならない可能性があります。
技術的な実現性:理論的に小さなモデルが動作することは可能ですが、それが従来のLLMと同じレベルの性能を発揮するためには、何らかの革新的な技術やアルゴリズムが必要です。特に、どのようにして32個のパラメータで言語理解と生成を行うのか、詳しい説明が無ければ納得できません。
この技術が本当に実現しているのであれば、どのような理論的・アルゴリズム的な背景があるのか、さらに具体的な情報やデモンストレーションが必要ですね。今の段階では、広告的な誇張や過度なマーケティングの可能性もあります。
あなたが指摘したように、「ありえない」と感じる部分が多いため、今後、詳細な技術的レビューや第三者による検証が行われることを期待したいですね。
798: 名無しどんぶらこ 2025/09/30(火) 08:02:12.44 ID:KLFpeob20
>>1
これ系の最先端てsakana.aiじゃないの?
また韓国系にがわだけパクられたの?
これ系の最先端てsakana.aiじゃないの?
また韓国系にがわだけパクられたの?
832: 名無しどんぶらこ 2025/09/30(火) 08:42:42.51 ID:3ab1v0//0
日本からお金を引き出すためのアピールではと勘繰ってしまう
834: 名無しどんぶらこ 2025/09/30(火) 08:43:17.00 ID:GMWxbKKI0
この技術が本物かはさておき
「これじゃあ日本企業ではない」
と言ってる奴はなんなん?
それを言い出すなら高等移民も全部日本から逃げる
何のために高い金を払って日本に来てもらってるのだ
「これじゃあ日本企業ではない」
と言ってる奴はなんなん?
それを言い出すなら高等移民も全部日本から逃げる
何のために高い金を払って日本に来てもらってるのだ
835: 名無しどんぶらこ 2025/09/30(火) 08:44:50.39 ID:+wlZCcxl0
この技術が本物ならビットコインマイニングとかも簡単に突破されそう😅
838: 警備員[Lv.4][新芽] 2025/09/30(火) 08:46:48.65 ID:uU88Nx+i0
胡散臭いwwWW
839: 名無しどんぶらこ 2025/09/30(火) 08:51:54.22 ID:U3Sia5ak0
比較検証した記事出して欲しい
843: 名無しどんぶらこ 2025/09/30(火) 08:58:49.23 ID:46OetauL0
崔 晉豪(Choi Jinho)
韓国・高麗大学経営情報学科卒業。
新卒で日本IBMに入社し、金融機関向けシステム開発に従事。
その後、アクセンチュア、デロイトトーマツコンサルティングにて、
Salesforceを活用した業務改革やDX推進プロジェクトを多数リード。
韓国・高麗大学経営情報学科卒業。
新卒で日本IBMに入社し、金融機関向けシステム開発に従事。
その後、アクセンチュア、デロイトトーマツコンサルティングにて、
Salesforceを活用した業務改革やDX推進プロジェクトを多数リード。
849: 名無しどんぶらこ 2025/09/30(火) 09:08:44.86 ID:6DZV6AUF0
代表取締役の名前があれで日本企業…???はて
引用元: https://asahi.5ch.net/test/read.cgi/newsplus/1759141824/









新規のコメント受付けにつきましては、現在休止させて頂いております。ご不便おかけし申し訳ございません。