中国の起業が開発したDeepSeekを使ってみましたChatGPTと比較した感想や実際にAIを作ろうとしたことがある自分の目線で感想を述べたいと思います。
中国といえば独裁国家であり日本にとって危険な国家といえます。
そんな中国ですがパクリ大国と言われているからか新しいものを作ろうとするとパクリを疑われるという側面があります。
DeepSeekもChatGPTやメタが開発したAIなどからパクっているだろうOpenAIを改変しただけだろうと言われていたりします。
個人的にはそんな面倒くさい事しなくても中国の企業ならAIを作るのは他の国よりも低予算で作れます。
これは独裁国家ならではの事情で他の国なら無理
アカウントはメールアドレスやGoogleのアカウント、Appleのアカウントがあれば簡単に作る事ができます。
使ってみた感想
感想としてはバリバリに中国へ忖度したAIです。
天安門事件や天安門の事を聞くと中国語が表示されて
他の話題について語りましょう
というようなタブーに触れたかのような反応になります。
最初は天安門について出力されていたのですが突然、規制が入る感じですね。
こんな感じですね
ChatGPTの場合はきちんと事件の概要を話してくれます。
また、台湾についても中国の一地域として紹介したりします。
ただ中国の雑学に関してはChatGPTよりも確度が高い感じがしますね
中国の卵料理は?とか中国で人気のある英雄は?とか
ChatGPTだと明らかに人気のない英雄まで書かれています。
というのも中国共産党が教科書から削除してそうな人物まで紹介するからですね。
ChatGPTには孫文(中国革命の父)毛沢東(中国共産党の創始者)周恩来(人民の総理)
などなど絶対に中国人に人気があるとは思えない人物まで紹介される。
タブーっぽい話題や話しづらい内容についてはChatGPTの方が詳しい
それ以外は気にならないというかChatGPTと変わらない出来栄え
使っていて違和感は感じないしChatGPTと比較するならもっと難しい事をさせる必要があるんだけど
これはコメント欄で教えてほしいです。
試しに小説を書かせるとこんな感じ
小説を書かせてみた
もちろん、以下に面白い小説のプロットと一部を書いてみます。タイトルは「時空を超えたカフェ」です。
### プロット:
主人公の「ハルカ」は、東京の下町で小さなカフェを営んでいる。ある日、カフェの地下倉庫で古い時計を見つける。その時計は不思議な力を持ち、特定の時間に針を合わせると、時空を超えて過去や未来に行けることがわかる。ハルカはその力を使って、さまざまな時代の客をカフェに招き入れ、彼らの悩みを解決していく。
### 第一章: 時計の発見
ハルカはカフェの地下倉庫を整理していた。埃まみれの箱を開けると、中から古びた時計が出てきた。それは彼女の曾祖父が大切にしていたものらしい。時計は金色で、複雑な模様が刻まれていた。針は止まっているが、なぜかハルカはそれを動かしてみたくなった。
「もしや…」と思い、時計の針を午後3時に合わせると、突然周りの空気が変わった。カフェのドアが開き、1920年代の服装をした男性が入ってきた。
「ここはどこだ?」男性は驚いた様子で言った。
ハルカは驚きながらも、冷静に「ここは『時のカフェ』です。どうぞおかけください」と答えた。
### 第二章: 過去からの客
男性の名前は「タケシ」で、1923年の関東大震災の直前にタイムスリップしてきたことがわかった。タケシは家族を失い、絶望の中にいた。ハルカは彼にコーヒーを淹れ、話を聞く。
「あなたはまだ未来がある。この時計を使って、家族を救うことができるかもしれない」とハルカは言った。
タケシは希望を取り戻し、ハルカの助言で過去に戻り、家族を救うことに成功する。彼は感謝の気持ちを込めて、ハルカに古い写真を渡し、去っていった。
### 第三章: 未来からの客
次の日、ハルカは時計の針を未来の時間に合わせてみた。すると、今度は2150年から来たという女性「アヤ」が現れた。アヤは環境破壊で荒廃した未来を変えるために、過去にやってきたのだ。
ハルカはアヤと共に、未来を変えるための方法を考える。彼女たちは環境保護の活動を始め、多くの人々に影響を与える。アヤは未来に戻り、ハルカは現代で活動を続ける。
### エピローグ:
ハルカのカフェは「時のカフェ」として有名になり、さまざまな時代から人が訪れる場所となった。ハルカは時計の力を使って、人々の悩みを解決し、歴史を少しずつ変えていった。彼女は時空を超えた絆を感じながら、今日もカフェでコーヒーを淹れている。
---
この小説は、時空を超えたファンタジー要素と、人々の心温まるストーリーが融合した作品です。読者がさまざまな時代に思いを馳せながら、主人公と共に冒険を楽しめる内容となっています。
プロットしては面白くなりそうですね。
日本語も読んでいてかなり自然
DeepSeekはなぜ安い?(考察)
DeepSeekは安価で開発されたOpenAIを教師役にしてKnowledge Distillation(知識蒸留)をしたのではないかという疑いを持たれているわけです。
蒸留というのはビールなどを火にかけて蒸発したアルコールを集める行為です。
ここでいう蒸留とは噛み砕いて言えばOpenAIを加工してDeepSeekは作られたのかと言われるゆえんですね。
つまり膨大なデータをOpenAIのパラメータに割り当てて使っているのではないかという事
これはあくまでも憶測でしかないしこれからの分析に期待ですね。
とはいえ他にも安くなる要因はあると思います。
これはあくまでも私の憶測なので真に受けないでください
まず中華アプリと呼ばれるものは全てログが管理されています。
胡麻信用と呼ばれるシステムで中国人はネットでの行動などでスコアがつけられている事も中国に少し詳しい人なら周知の事実
また中国には国家情報法というものがあり国が企業に対して情報を提出せよと言ったら提出しなければならない
AIを制作するさいに必要不可欠なものは
膨大な会話データなどです。
DeepSeekのようなチャットボットを作るさいには会話のデータが必要不可欠
ですが中国はこの会話データを格安で集められます。
世界的に有名なTikTokや原神などのゲームなどチャットデータを集めて提出させる事が可能だからです。
中国人のデータは更に簡単ですね。
他の国であれば自社のプラットフォームから会話ログを抽出するのが関の山ですが
中国は中国企業から簡単に膨大なデータを集める事ができます。
技術的な革新もあるだろうけど、基本的にデータを集める手間が大幅に削減されていると見て間違いない(個人の感想)
優秀なプログラマーと、高性能パソコン、膨大な会話ログがあればDeepSeekのようなAIを作るのは難しくないと思っています。
ChatGPTを使ってプログラミングを組ませてAI(データ不足)を作った身からするとわざわざ、パクる必要があるのかという意見になる。
むしろ、中国系のアプリを世界中の人が使っている限り、膨大なログは手に入るわけだからパクリを疑うのは見当違いと言える
OpenAIやDeepSeekはどのように作られたのかChatGPTに聞いてみたところこんな返答がありました
OpenAIはどんなプログラミングで学習されたAIですか?
OpenAIのAIモデル(例えば、ChatGPT)は、主に Python(パイソン) というプログラミング言語を使って開発・学習されています。
Pythonは、機械学習や人工知能(AI)の分野で広く使われている言語で、シンプルな文法と豊富なライブラリ(便利な機能をまとめたツール集)が特徴です。
具体的な技術スタック
OpenAIのAIは、以下のような技術を使って学習・開発されています。
- 深層学習(ディープラーニング)フレームワーク
- PyTorch(パイトーチ)
OpenAIは、主に PyTorch という深層学習用のライブラリを使用しています。PyTorchは、ニューラルネットワーク(脳の仕組みを模したモデル)を簡単に作れるツールです。
- PyTorch(パイトーチ)
- 大規模分散学習(たくさんのコンピューターを使った学習)
- AIの学習には膨大なデータと計算が必要なので、クラウドコンピューティング を活用し、強力な GPU(グラフィックス処理装置) や TPU(Googleの専用チップ) を使って並列処理(同時に計算すること)を行います。
- トランスフォーマー(Transformer)というAIの仕組み
- OpenAIのモデル(例えばGPT-4)は、「トランスフォーマー」というニューラルネットワークの技術を使っています。
- これは、テキストの意味を理解するのに優れたモデルで、言葉の順番や文脈を考慮しながら予測を行います。
AIの学習方法
AIが学習するためには、以下のような方法が使われます。
- 教師あり学習(Supervised Learning)
→ 人間が正解データを与えて、それを学習させる方法。 - 強化学習(Reinforcement Learning)
→ AIが試行錯誤しながら、より良い答えを見つける方法。ChatGPTは「強化学習(人間のフィードバック付き)(RLHF)」という方法で学習しています。
OpenAIのAIは、主に Python を使って開発され、PyTorch などの深層学習ライブラリを活用し、GPU/TPU などの強力な計算機を使って学習されています。
また、「トランスフォーマー」という技術を使っており、強化学習などの手法で学習を進めています。
DeepSeekはどんなプログラミングで学習されたAIですか?
DeepSeek も OpenAI(ChatGPT)と同じく、Python を主に使用して開発・学習されている AI です。
DeepSeek は、大規模な言語モデル(LLM: Large Language Model)であり、深層学習(ディープラーニング) の技術を活用して訓練されています。
DeepSeek の技術スタック
1. プログラミング言語
- Python(パイソン)
→ 機械学習や AI モデル開発で最も一般的な言語。
→ 深層学習ライブラリやデータ処理ライブラリが豊富。
2. 深層学習フレームワーク
- PyTorch(パイトーチ)
→ ディープラーニングの開発で広く使われるライブラリ。
→ OpenAI の ChatGPT も PyTorch を使用している。 - JAX(ジャックス)(一部可能性あり)
→ Google が開発した、高速計算に特化したライブラリ。
→ TPU(特殊なチップ)を活用しやすい。
3. モデルのアーキテクチャ
- トランスフォーマー(Transformer)
→ GPT(Generative Pre-trained Transformer)と同じ仕組み。
→ 大量のテキストデータを学習して、自然な文章を生成できる。 - DeepSeek-V2 は MoE(Mixture of Experts)を採用
→ 「Mixture of Experts(専門家の組み合わせ)」という手法で、効率よく学習し、計算コストを削減。
4. ハードウェア
- GPU(NVIDIA A100/H100 など)
→ AI の学習には強力なグラフィックボードが必要。 - TPU(Google の専用 AI チップ)
→ JAX などと組み合わせて高速処理する可能性あり。
※DeepSeekは2,048基のH800を使用して作られています
DeepSeek の学習方法
DeepSeek の AI モデルは、以下のような手法で学習されます。
- 事前学習(Pretraining)
→ インターネット上の大量のテキストデータを使い、言語のパターンを学習。 - 微調整(Fine-tuning)
→ 特定のタスク(例えば、質問応答やコード生成など)に適応させる。 - 強化学習(Reinforcement Learning)
→ RLHF(人間のフィードバックを利用した強化学習) を使い、より良い回答を生成する。
✅ DeepSeek は Python で開発され、主に PyTorch を使用
✅ GPT-4 などと同じ「トランスフォーマー」技術を採用
✅ MoE(Mixture of Experts)を活用し、計算効率を向上
✅ GPU や TPU などの高性能ハードウェアで学習
✅ 強化学習(RLHF)を用いて、より自然な回答を生成
DeepSeek も OpenAI の ChatGPT と似た技術を使っていますが、計算効率を上げるために MoE という手法を取り入れている のが大きな特徴ですね!
なぜDeepSeekを作ったのか?(考察)
中国産〇〇というのは珍しくないが中国産AIを作るのも当然
なぜなら天安門事件など中国にとって都合の悪い事件や情報が人民に知られてしまう可能性を考慮した結果だ
外国のアプリを使っているとそういう危険性があるため中国は国産アプリを作らなければならないという背景がある
実にディストピアですね。
人民に自分たちの都合が良い情報だけを与えるある種の洗脳をするために作ったという側面が強い
言論統制の意味合いが強いです。
まとめ
中国企業が作ったDeepSeekですが中国に忖度している事以外はChatGPTと同じ
比較しても違和感はない
ただし、天安門や台湾など中国のタブーにふれる質問や中国の立場を強調した主張をしてくるので
政治的な意見を求めても正しい答えが返ってくる事はないかもしれない
逆に中国の意見をダイレクトに知る事ができるツールなのかもしれない
ただ、中国の雑学や歴史、文化や風習に関しては詳しいかもしれない
中国語で質問して日本語に和訳すればかなり精度の高い情報が得られるかもしれませんね
ではでは(^ω^)ノシ