GPT4とBardを比較してみました

GPT4とBardを比べてみました。BardはGeminiが搭載されたらしいので、最新のやつですね。

これはどうなるか楽しみです。

下記のプロンプトをGPT4に出してもらいました。

GPT4にプロンプトを出してもらう

まずそれぞれに入力するプロンプトをGPT4に書いてもらいます。
以下がGPT4の出力です。

****GPT4

他のAIを試すためのプロンプトの例をいくつか挙げます:

1. 「あなたが日本の伝統的な庭園を設計するAIだと仮定して、どのような要素を取り入れ、どのような雰囲気を作り出しますか?」

2. 「AIが料理レシピを考案するとしたら、夏向けの健康的なサラダレシピを提案してください。使用する食材とその理由も説明してください。」

3. 「教育用AIとして、中学生向けの基礎的な数学の勉強法を提案してください。どのようにして学習を効果的に進めることができるか、具体的な方法を示してください。」

4. 「音楽制作AIになったとしたら、リラックスできるカフェ向けのBGMをどのように作曲しますか?その曲の特徴や作成する際のポイントを説明してください。」

これらのプロンプトは、それぞれ異なるAIの能力を試すのに適しています。

***プロンプトここまで

それぞれの回答です。
まとめて出力します。

まずGPT−4です。

GPT4の回答

User
AIが料理レシピを考案するとしたら、夏向けの健康的なサラダレシピを提案してください。
使用する食材とその理由も説明してください。

ChatGPT
夏向けの健康的なサラダレシピとして、「夏野菜とクスクスのレモンハーブサラダ」を提案します。
使用する食材とその理由は以下の通りです:

クスクス – 軽い食感で、夏にぴったりの穀物。栄養価が高く、炭水化物の良い源です。

トマト – 水分が豊富で、リコピンとビタミンCが多く含まれており、暑い季節の水分補給と栄養補給に適しています。

きゅうり – 水分が多く、夏に失われがちな水分を補給します。さっぱりとした食感が特徴です。

赤玉ねぎ – 鮮やかな色と独特の辛味がサラダに深みを加えます。抗酸化物質も豊富です。

フェタチーズ – 塩気とクリーミーな食感が、サラダにコクを加えます。

新鮮なハーブ(バジル、ミント、パセリ) – 香りが良く、料理に爽やかさを加えます。

レモン汁とオリーブオイル – ドレッシングとして使用。レモンの酸味とオリーブオイルのまろやかさが、サラダに爽やかで軽やかな味わいをもたらします。

このサラダは、栄養バランスが良く、暑い夏にぴったりの爽やかさと満足感を提供します。
また、彩りも鮮やかで、食卓を華やかにします。

User
あなたが日本の伝統的な庭園を設計するAIだと仮定して、どのような要素を取り入れ、どのような雰囲気を作り出しますか?

ChatGPT
日本の伝統的な庭園を設計するAIとして、次のような要素を取り入れ、特定の雰囲気を作り出します:

水の要素 – 池や流れる小川を設け、水の静けさと動きを取り入れます。水は心を落ち着かせ、自然とのつながりを感じさせる要素です。

石と岩 – 庭園のデザインに石や岩を配置し、自然の美しさと永続性を表現します。これらは庭の骨格を形成し、静寂と安定感を提供します。

緑の植物 – 竹や松、苔など、四季を通じて変化する緑の植物を使用します。これにより、季節の移り変わりを感じられるようにします。

小道 – 庭を歩くための小道を設け、訪れる人が庭園内を散策できるようにします。小道は庭園のさまざまな景色を楽しむためのガイド役を果たします。

茶室または休憩所 – 庭園内には茶室や休憩所を設け、訪れた人々が庭の美しさを静かに楽しむ場所を提供します。

季節の花 – 桜や紅葉など、季節ごとの代表的な花や木を配置し、年間を通じて変わる自然の美しさを演出します。

灯り – 石灯籠やアンドンを配し、夜間には幻想的な雰囲気を作り出します。

このような要素を組み合わせることで、静寂、和やかさ、自然との調和を感じられる伝統的な日本庭園を創出します。

この庭園は、都市の喧騒から離れた静かな隠れ家となり、訪れる人々に心の平和とリラクゼーションを提供する場所となるでしょう。

User
教育用AIとして、中学生向けの基礎的な数学の勉強法を提案してください。どのようにして学習を効果的に進めることができるか、具体的な方法を示してください。

ChatGPT
教育用AIとして、中学生向けの基礎的な数学の勉強法を以下のように提案します:

基本概念の理解 – 数学の基本概念(加減乗除、分数、小数、方程式など)をしっかり理解することが重要です。

簡単な例を用いて、これらの概念を日常生活と関連付けて説明することが効果的です。

段階的な学習 – 基礎から徐々に難易度を上げていく。理解が不十分な部分は、先に進む前にしっかりと固めます。

練習問題の活用 – 理解した概念を練習問題で実際に適用することで、知識を定着させます。間違えた問題は、解答と解説を参考にして理解を深めます。

ビジュアルエイドの使用 – 図表やグラフを使用して視覚的に情報を捉える。視覚的な理解は、数学的概念をより深く理解するのに役立ちます。

定期的な復習 – 定期的に過去に学んだ内容を復習することで、忘れてしまいがちな知識を再確認します。

自己解決の推奨 – 理解できない問題があった場合、まずは自分で解決策を見つけるように励ます。それでも解決できない場合は、教師や同級生、オンラインの資源を活用します。

時間管理と計画的な学習 – 学習時間を計画的に管理し、毎日一定の時間を数学学習に割り当てます。短時間でも集中して学習することが重要です。

応用問題への挑戦 – 基本的な問題が解けるようになったら、より応用的な問題への挑戦を促します。これにより、思考力と問題解決能力が養われます。

これらの方法を通じて、中学生は基礎的な数学の概念をしっかりと身につけ、より高度な数学へとスムーズに進むことができるでしょう。

User
音楽制作AIになったとしたら、リラックスできるカフェ向けのBGMをどのように作曲しますか?その曲の特徴や作成する際のポイントを説明してください。

ChatGPT
音楽制作AIとして、リラックスできるカフェ向けのBGMを作曲する際には、以下のような特徴やポイントを考慮します:

テンポとリズム – テンポはゆったりとしたものを選び、心地よいリズムを採用します。通常、60〜80BPM(ビート・パー・ミニュート)の範囲がリラックス効果を高めます。
和やかなメロディー – シンプルで覚えやすいメロディーを使用します。複雑なメロディーよりも、繰り返されるフレーズがリラックスした雰囲気を作り出します。
柔らかい音色 – ピアノ、アコースティックギター、ストリングスなどの柔らかく暖かみのある音色を選びます。これらの楽器は心を落ち着かせる効果があります。
自然の音 – 鳥の鳴き声や水の流れる音など、自然の音を背景に加えると、よりリラックスした雰囲気を演出できます。
ハーモニーの使用 – 和音やハーモニーをうまく使って、曲に深みと豊かさを加えます。ただし、複雑にしすぎず、穏やかさを保ちます。
長いサステインとエコー – 音に長いサステイン(持続)やエコー(反響)を加えることで、曲に広がりと空間感を持たせます。
ループしやすい構成 – カフェのBGMとしては、短い曲をループしやすいように構成します。曲の始まりと終わりが自然につながるように作曲します。
静かなダイナミクス – 音量の変化は控えめにし、曲全体を通じて落ち着いたダイナミクスを保持します。
これらのポイントを踏まえて作曲することで、カフェでの滞在をより快適でリラックスしたものにすることができます。音楽が環境に溶け込み、訪れる人々に穏やかな時間を提供することが目標です。

Bardの回答

続いて、Bardの回答です。

あなたが日本の伝統的な庭園を設計するAIだと仮定して、どのような要素を取り入れ、どのような雰囲気を作り出しますか?

日本の伝統的な庭園を設計するAI
日本の伝統的な庭園は、自然の美しさを表現し、心安らぐ空間を作り出すことを目的としています。AIとして、以下の要素を取り入れ、静寂と調和に満ちた空間を作り出します。

要素

自然の風景: 山、川、海、湖などの自然風景を模倣した景観を作り出す。
水: 池や滝、小川などの水を取り入れ、静寂と動きを同時に表現する。
石: 様々な形状の石を使い、山や岩、島などを表現する。
灯籠: 夜の景観を美しく照らし出す。
橋: 池や小川を渡るための橋を架け、景観に変化を与える。
茶室: 庭園の景観を楽しみながら茶を味わうための空間。
植栽: 季節ごとに様々な表情を見せる樹木や草花を植える。
雰囲気

静寂: 都会の喧騒から離れ、心静かに過ごせる空間。
調和: 自然と人工物が調和した、美しい空間。
侘び寂び: 日本の美意識である「侘び寂び」を表現した、奥深い空間。
無常: 自然の移ろいを感じられる、時間の流れを意識した空間。
AIならではの要素

データに基づいた設計: 過去の庭園データを分析し、最適な配置やデザインを提案する。
季節ごとの変化: 季節ごとに異なる景観を楽しめるように設計する。
インタラクティブな体験: 音や光を使ったインタラクティブな体験を提供する。
AIの力で、伝統的な要素と現代的な技術を融合させた、新しい日本の庭園を創造します。


例えば、以下の庭園を設計することができます。

都会のオアシス: 都会の喧騒から離れた、静寂に包まれた庭園。水の音と緑の香りを感じながら、心身をリラックスできる空間。

四季折々の美しさ: 春は桜、夏は新緑、秋は紅葉、冬は雪景色と、季節ごとに異なる美しさを楽しめる庭園。

歴史と文化を感じる: 日本の伝統文化を感じられる、歴史的な要素を取り入れた庭園。茶室や灯籠など、日本の美意識を表現した空間。

未来を感じる: 最新技術を使ったインタラクティブな体験を提供する庭園。音や光で演出された、幻想的な空間。

AIによって、日本の伝統的な庭園は新たな可能性を秘めています。

●AIが料理レシピを考案するとしたら、夏向けの健康的なサラダレシピを提案してください。使用する食材とその理由も説明してください。

夏バテ防止!栄養満点サラダ

材料
トマト:リコピンが豊富で、夏の紫外線対策に効果的。
きゅうり:水分が多く、カリウムも豊富で、夏バテ防止に効果的。
枝豆:たんぱく質やビタミンB群が豊富で、疲労回復に効果的。
オクラ:ネバネバ成分が胃腸を保護し、消化を促進する。
梅干し:クエン酸が疲労回復に効果的。
ちりめんじゃこ:カルシウムやDHAが豊富で、骨や脳の健康に効果的。
ドレッシング

オリーブオイル:良質な脂質が豊富で、美容や健康に効果的。
レモン汁:ビタミンCが豊富で、疲労回復や美肌効果に効果的。
塩コショウ:味を調える。
作り方

トマト、きゅうり、オクラはよく洗い、食べやすい大きさに切る。
枝豆は茹でて、さやから出す。
梅干しは種を取り除き、包丁で叩く。
ちりめんじゃこは軽く炒める。
全ての材料をボウルに入れ、ドレッシングで和える。

ポイント
トマトは湯剥きすると、より食べやすくなる。
オクラは茹で過ぎるとネバネバ成分が損なわれるので、さっと茹でる。
梅干しの量は、お好みで調整する。
ドレッシングは、お好みで他の材料を加えてもよい。
このレシピの利点

夏バテ防止に効果的な食材を組み合わせている。
低カロリーでヘルシーなため、ダイエット中にもおすすめ。
簡単で手軽に作ることができる。

AIが考案した理由
夏は暑さで食欲が落ちやすく、栄養不足になりやすい。
このレシピは、夏バテ防止に効果的な食材を組み合わせることで、栄養バランスを整えている。

低カロリーでヘルシーなので、ダイエット中の方にもおすすめ。
簡単で手軽に作ることができるので、忙しい方でも無理なく続けられる。
AIは、今後も健康的な食生活をサポートするために、様々なレシピを考案していきます。

●「教育用AIとして、中学生向けの基礎的な数学の勉強法を提案してください。どのようにして学習を効果的に進めることができるか、具体的な方法を示してください。

中学生向け 基礎数学の効率的な勉強法

1. 基礎固めを徹底する
数学は積み重ねの科目です。そのため、簡単な問題を解けなければ複雑な応用問題は解けません。まずは教科書やワークを使って、公式や基本事項をしっかり理解しましょう。

2. 問題演習を繰り返す
公式や基本事項を理解したら、問題演習を繰り返して解法を体に覚えさせましょう。問題集や過去問などを活用し、様々な問題に挑戦しましょう。

3. 間違えた問題は必ず復習する
間違えた問題は、なぜ間違えたのか原因を分析し、同じ間違いを繰り返さないように復習しましょう。解説をよく読み、理解できない部分は先生や友達に質問しましょう。

4. 毎日少しずつでもいいので学習する
数学は継続が大切です。毎日少しずつでもいいので、学習を続けるようにしましょう。習慣化することで、学習効果が上がります。

5. 自分に合った勉強法を見つける
人によって、理解しやすい方法や勉強方法は異なります。自分に合った勉強法を見つけることで、より効率的に学習を進めることができます。

具体的な方法

教科書を音読する
教科書の内容を音読することで、内容を頭に入れやすくなります。

公式や定理をノートにまとめる
公式や定理をノートにまとめることで、理解が深まり、覚えやすくなります。

問題集を解く
問題集を解くことで、公式や定理の理解度を確認することができます。

過去問を解く
過去問を解くことで、試験形式に慣れることができます。

先生や友達に質問する
理解できない部分は、先生や友達に質問しましょう。

オンライン学習を活用する
オンライン学習を活用することで、自分のペースで学習を進めることができます。

学習ツール

教科書
ワーク
問題集
過去問
参考書
オンライン学習教材
学習のポイント

基礎固めを徹底する
問題演習を繰り返す
間違えた問題は必ず復習する
毎日少しずつでもいいので学習する
自分に合った勉強法を見つける

まとめ
数学は苦手意識を持つ人が多い科目ですが、正しい勉強法を実践すれば、必ず克服することができます。上記のポイントを参考に、自分に合った勉強法を見つけて、基礎数学をマスターしましょう。

●カフェ向けリラックスBGMの作曲
音楽制作AIとして、リラックスできるカフェ向けのBGMを以下のように作曲します。

曲の特徴

テンポ:ゆっくりとしたテンポ(60-80bpm程度)
音量:音量は控えめに、耳障りにならない程度にする。
音色:ピアノ、ギター、ストリングスなど、柔らかい音色の楽器を使用する。
メロディー:シンプルで覚えやすいメロディーにする。

コード進行:落ち着いた雰囲気になるようなコード進行にする。
リズム:ゆったりとしたリズムにする。
音響効果:自然音や環境音を取り入れると、よりリラックス効果を高めることができる

作成する際のポイント
カフェの雰囲気に合った曲を作る。
お客さんがリラックスできるような曲を作る。
飽きがこないような曲を作る。
著作権フリーの素材を使用する。

具体的な作曲例
ピアノとギターのシンプルなメロディーに、ストリングスで温かみを加えた曲。
自然音を取り入れたアンビエントミュージック。
カフェの店内で流れるような、ゆったりとしたジャズ曲。

AIが作曲する利点
人間では思いつかないような、新しい音楽を作ることができる。
大量のデータを分析することで、カフェの雰囲気に合った曲を作ることができる。

著作権フリーの素材を使用することで、コストを抑えることができる。

まとめ
カフェ向けリラックスBGMは、お客さんにリラックスしてもらうために重要な役割を果たします。AIを活用することで、カフェの雰囲気に合った、オリジナルのBGMを作ることができます。

*******ここまでBardの回答

結構Bardはしっかりと答えてますね。

 

画像生成はどうか

画像生成をBardに出してもらいましたが、なかなか質の高い画像を出しますね。
プロンプトの指示と若干違うものを出しましたが、そのうち直ってくるでしょう。

あと、日本語のプロンプトはまだ未対応です。
なので英語に直して入れる感じですね。
まあ、すぐに対応してくると思われます。

こちらが画像のサンプル

プロンプトは
「パソコンをしているかわいい猫のイラストを描いて」

GPT4
プロンプト通りのバッチリの画像です。

Bard

質はいいですよね。

総評

結果ですが、結構Bard使えますね。
これ確かGemini Proが搭載されているので、GeminiのNo2のやつですよね。

なのでトップクラスのGemini Ultraがもし搭載されたとしたら、もっと良い結果になるんでしょうね。

画像生成も対応したようで、日本語のプロンプトはまだ使えませんが、英語のプロンプトに直せば、結構質の高い画像を出力します。

結構Bard使えますね。
これだとOpenAIも、ちょっとうかうかしてられないですね。

動画生成AIの時代。Youtubeショート動画もAIで制作か

****************
X 旧ツイッターもやってます。
https://twitter.com/ison1232

インスタグラムはこちら
https://www.instagram.com/nanahati555/

****************

最近は、ぼちぼち動画を作れる生成AIが出てきましたね。
作れる秒数はまだまだ短いですが、この手のものは進化が早いですから、すぐに数十分単位までいけそうですよね。

今回はこの動画生成AIについて考えてみようかと思います。

動画生成AIとは何か?

動画生成AIとは、人工知能(AI)技術を用いて動画コンテンツを生成するシステムのことです。
この技術は、テキストや画像から動画を生成することができ、従来の動画制作プロセスを大幅に効率化します。AIは様々なパターンを学習し、その学習したデータをもとに新しい動画を創出することができます。

これにより、手間と時間がかかる動画制作作業がより簡単かつ迅速に行えるようになり、クリエイティブな作業により集中できるようになります。

AI技術の進化と動画生成

近年、AI技術は目覚ましい進化を遂げています。特に機械学習やディープラーニングの分野では、大量のデータを基に学習し、より精度の高い予測や生成が可能になっています。

動画生成においても、AIは膨大な動画データから学び、リアルタイムでの動画生成や、より高度な編集技術の実現が期待されています。これにより、従来では考えられなかったような新しい形式の動画や、よりリアルな映像表現が可能になるでしょう。

 

動画編集の未来

AIによる動画生成は、動画編集のプロセスを大きく変える可能性を秘めています。

例えば、AIが自動で最適なカットやトランジションを選択し、効率的に編集作業を進めることができます。また、ユーザーの要望に応じてカスタマイズされた動画を生成するなど、個々のニーズに合わせた動画制作も容易になるでしょう。

このように、AIは動画編集におけるクリエイティビティの幅を広げるとともに、作業の負担を軽減します。

クリエイティブ産業における動画生成AIの影響

動画生成AIは、映画、テレビ、広告、ゲーム産業など、多岐にわたるクリエイティブ産業に大きな影響を及ぼすことが予想されます。

AIによる高度な映像制作や、新しい形のストーリーテリングは、視聴者に新たな体験を提供します。また、コスト削減や制作時間の短縮にも貢献し、より多くのクリエイティブなプロジェクトが実現可能になります。

これにより、クリエイティブ産業全体のイノベーションが加速されることが期待されます。

未来の技術としての動画生成AI

動画生成AIの進化は、私たちの日常生活にも大きな変化をもたらします。
例えば、教育やトレーニングの分野では、カスタマイズされた学習用動画の提供が可能になるでしょう。また、個人の趣味や興味に合わせた動画コンテンツの生成も容易になり、よりパーソナライズされたエンターテイメント体験が提供されます。

さらに、ビジネスのプレゼンテーションやマーケティングでも、AIによる動画生成は大きな役割を果たすことになるでしょう。
このように、動画生成AIは私たちの生活の様々な側面に影響を及ぼし、新しい価値を創造します。

 

YouTubeショート動画と生成AIの組み合わせ

YouTubeショート動画は、短いフォーマットの動画コンテンツであり、特に若い世代に人気があります。

生成AIを用いることで、このようなショートフォーマットの動画も効率的に制作することが可能です。

AIは、ユーザーが入力したテキストやイメージに基づき、創造的でユニークなショート動画を生成できます。
これにより、個人のクリエイターから大企業まで、さまざまなユーザーが手軽にオリジナルのショート動画を制作し、YouTubeで共有することができます。

AI動画技術の進化とYouTubeコンテンツ

AI動画技術の進化は、YouTubeコンテンツの制作過程に大きな変化をもたらしています。
特に、高度な機械学習モデルを使用することで、短時間で高品質な動画コンテンツを生成することが可能になります。

また、AIはユーザーの過去の視聴傾向や好みを分析し、ターゲットオーディエンスに合ったコンテンツの提案も可能です。これにより、より多くの視聴者に届くパーソナライズされた動画の制作が実現します。

コンテンツ制作の効率化

AI技術を活用することで、コンテンツ制作の効率化が進みます。従来の動画制作は時間と労力を要するプロセスでしたが、AIを使用することで、編集や映像処理の作業時間を大幅に短縮できます。

さらに、AIはユーザーが求めるスタイルやフォーマットに合わせて動画を自動生成し、個々のニーズに応じたコンテンツ制作を支援します。
これにより、より多くのクリエイターが自分のアイデアを素早く形にできるようになります。

AIによる新しい映像表現の可能性

AI技術は、従来の動画制作では実現が困難だった新しい映像表現の可能性を開きます。

例えば、AIによる自動アニメーション生成や、リアルタイムでの映像変換は、ユーザーに新しい視覚体験を提供します。

また、AIが創造する独自のビジュアルエフェクトは、YouTubeショート動画に新しい魅力を加え、視聴者を引きつける要素となります。

デジタルコンテンツの未来とAIの役割

AI技術は、デジタルコンテンツの未来において重要な役割を担います。

特にYouTubeのようなプラットフォームでは、AIが生成したコンテンツが主流となる可能性があります。AIは、ユーザーの関心やトレンドを分析し、時代に合ったコンテンツの提案を行います。

これにより、YouTubeショート動画はさらに多様化し、ユーザーに新たな楽しみを提供する重要なメディアとなります。

また、AI技術の発展に伴い、コンテンツの質や多様性はさらに向上し、デジタルコンテンツの可能性を広げていくでしょう。

藤井聡太君に学ぶ、子供が将棋で強くなる方法

****************
X 旧ツイッターもやってます。
https://twitter.com/ison1232

インスタグラムはこちら
https://www.instagram.com/nanahati555/

****************

AIを駆使して将棋を研究

藤井聡太君がAIを駆使して、将棋の力を付けてきたのは有名です。

藤井聡太君は、AIを活用して将棋のスキルを磨いており、多くの棋士がAIの存在を重要視しています。

彼は序盤研究でAIを使用し、定跡を作成する側に回ったとされています。

また、ディープラーニングを搭載した最先端の将棋ソフトを研究に導入し、従来のAIとは異なる特徴的な手を指すことで、形勢を有利に導いています。

そんな藤井君の少年時代はどうだったのか。まだAIが普及する前の基礎作りを今回は検証してみたいと思います。

定跡の学習と暗記は大事

藤井聡太君の少年時代、将棋学習方法の中で特に注目すべきは、定跡の学習と暗記の重要性です。

彼は幼い頃から『駒落ち定跡』や『羽生の頭脳』などの厚い定跡書を学び、それらを暗記することで将棋の基礎を固めました。

これらの定跡書には、将棋の基本的な戦術や戦略が豊富に含まれており、大人の有段者でさえ全てを覚えるのが難しいほどの内容です。
しかし、藤井君は約2年をかけてこれらを学び、深い理解を築き上げたのです。

定跡の学習は、将棋の世界での成功の鍵を握る要素の一つです。
定跡を知ることで、局面ごとの最適な手順や、さまざまな戦術の応用が可能になります。また、定跡を暗記することは、記憶力や集中力を高めるのにも役立ち、将棋以外の分野においてもそのスキルは有用です。

特に子供が将棋を学ぶ際には、定跡の暗記が非常に効果的です。
子供たちは新しい情報を吸収する能力が高く、複雑な定跡も比較的容易に学ぶことができます。

藤井君のように、幼い頃から定跡に触れることで、将棋の理解が深まるだけでなく、戦術的な思考や先読みの能力も養われます。

加えて、定跡の学習は子供たちにとって楽しい挑戦でもあります。
定跡を学び、それを実戦で使うことで、子供たちは自分の成長を実感し、将棋への興味をさらに深めることができるでしょう。

藤井君の例は、定跡学習の効果が如何に大きいかを示しています。彼のように、子供たちが定跡に取り組むことで、将棋の才能を最大限に引き出すことが可能になります。

詰め将棋の重視

藤井聡太君の将棋学習法の重要な側面の一つに、詰将棋の重視があります。

彼が通っていたふみもと子供将棋教室では、詰将棋の練習に大きな重きを置いていました。

詰将棋とは、特定の局面から相手の王を必ず詰ます方法を見つけ出すパズルのようなものです。
これは、将棋のルールを深く理解する上で基本中の基本とされています。

詰将棋は単にルールの理解に役立つだけでなく、より深い読みや戦術的思考を育てるための重要なツールです。
藤井君は、詰将棋を通じて、将棋の各局面での可能性を予測し、より複雑な戦術的展開を想像する力を養ってきました。

詰将棋は、将棋の終盤における勝利への道筋を見つけるためにも重要です。

詰将棋を解くことは、特に子供たちの思考力の発達に役立ちます。
子供たちは詰将棋を解くことで、論理的思考や問題解決のスキルを養い、将棋の局面において数手先を読む力を高めることができます。

また、詰将棋は挑戦的であり、解決した時の達成感は子供たちのモチベーションを高めることにつながります。

ふみもと子供将棋教室では、ルールを覚えたばかりの子供たちにも最初から詰将棋を課題として与えています。
これにより、子供たちは基本的なルールだけでなく、将棋のより高度な戦術や戦略を学ぶことにも早くから触れることができます。
藤井君自身も、最初から詰将棋に取り組んでおり、これが彼の将棋への理解を深めるのに大きく貢献しました。

藤井君の例は、詰将棋を練習することの価値を示しており、これを模倣することで他の子供たちも将棋での成功を目指すことができるでしょう。

実戦経験は大事

藤井聡太君の将棋学習において、実戦経験の重要性は特筆すべき点です。

彼は幼少期からふみもと子供将棋教室に通い、様々なレベルの対手との対局を通じて実戦スキルを磨きました。

特に、教室には藤井君より年上で経験豊かな強豪が多数いたため、彼は常に高いレベルの対局に挑戦し続けることができました。

対戦を重視することは、将棋の戦術や戦略を実際のゲームで試し、適応する能力を養います。

実際の対局では、様々な戦術に遭遇し、それに対応する必要があるため、柔軟な思考と瞬時の判断力が求められます。
藤井君はこれらの経験を積むことで、将棋の深い理解と実戦での応用力を身につけました。

また、実戦経験はプレッシャーの中での思考力を養うのにも役立ちます。
対戦中は限られた時間の中で最適な手を考え出さなければならないため、このような状況で冷静に考え、決断する能力が自然と身につきます。

藤井君は多くの対局を通じて、このような困難な状況での冷静さと集中力を養っていきました。

さらに、対戦は将棋の楽しさを実感する上でも重要です。

藤井君のように多くの対局に参加することで、子供たちは勝利の喜びや、敗北からの学びを体験することができます。

これらの経験は将棋への情熱を育むと同時に、将棋の技術的な向上にもつながります。

教室の中での対局だけでなく、合宿やトーナメントなど、さまざまな形式の対戦を経験することも重要です。

これにより、子供たちは異なるスタイルの対戦相手に適応し、自分自身のスタイルを確立することができます。

藤井君の成功は、実戦経験の積み重ねがいかに重要かを示しています。

棋譜を学習する

藤井聡太君が将棋の学び方で重視したもう一つの要素が、棋譜の学習です。

彼は幼少期から棋譜を読む練習に励み、これによって将棋の戦術や戦略を深く理解していきました。

棋譜とは、過去の将棋の対局を記録したもので、そこにはプロの対局者たちの巧妙な手順や独創的な戦略が詳細に記されています。

棋譜を読むことの重要性は、実際の対局での経験を補完するものです。

実戦では、限られた対戦相手との経験しか得られませんが、棋譜を通じて様々なスタイルや戦術を学ぶことができます。

藤井君は、棋譜から多様な局面の分析や、有効な手順の理解を深め、自身の将棋の技術を高めていきました。

また、棋譜を読むことは、将棋の歴史や文化を学ぶ上でも重要です。

過去の名局を学ぶことで、将棋の伝統的な価値観や、時代によって変化する戦術の流行を理解することができます。

藤井君はこのような歴史的な知識も身につけ、より深いレベルで将棋を理解していきました。

さらに、棋譜の学習は思考力や分析力の向上にも寄与します。
棋譜を読み解く過程で、なぜその手が選ばれたのか、どのような戦術的な意図があるのかを理解する必要があります。

藤井君はこれらの分析を通じて、より論理的で戦術的な思考を養っていきました。

このように、棋譜の学習を日々の練習に取り入れることで、子供たちも将棋の世界で成長し続けることができるでしょう。

まとめ

将棋を少年時代に習得するには、
定石、詰め将棋、実戦、棋譜の学習。

これらを常に繰り返し学ぶことで、将棋の実力がついてくるのでしょう。

第二、第三の藤井君が出てくるのが楽しみですね。

 

****************

将棋教室への入会やサロンで将棋を指したい方は、
下記をおすすめします。

将棋の里 at妻沼東
https://shoginosato.com/

****************

 

オリジナルのGPTsを公開できるGPTストアがオープン

****************
X 旧ツイッターもやってます。
https://twitter.com/ison1232

インスタグラムはこちら
https://www.instagram.com/nanahati555/

****************

革新的なAI市場:OpenAIのGPTストアが登場!

OpenAIがついに「GPTストア」をオープンしました!

このストアは、人工知能(AI)の最先端技術を使って、誰でも自分のAIを作れる場所なんです。
でも、「GPT」とは何か、そしてどうしてこれがすごいことなんでしょう?

GPTとは「Generative Pre-trained Transformer」の略で、大量のデータから学習して、人間のような文章を書くことができるAI技術です。
GPTストアでは、このGPT技術を使った様々なアプリケーションが紹介されています。

特に面白いのは、ストアには「ノーコード」でAIを作れるってことです。
つまり、プログラミングが苦手な人でも、簡単に自分だけのAIを作ることができるんです。

たとえば、自分のブログ用の記事を書いてくれるAI、宿題を手伝ってくれるAI、あるいは面白い話をしてくれるAIなど、想像力次第でいろいろなAIを作ることができます。

また、GPTストアはOpenAIの有料プランユーザーが利用できます。
これには、個人向けの「ChatGPT Plus」やグループ向けの「Team」プランなどがあり、これらのプランを使えばさらに多くの機能にアクセスできます。

このGPTストアの登場は、AI技術の普及に大きな一歩と言えるでしょう。これからどんな革新的なAIが生まれるのか、とても楽しみですね!

GPTストアの使い方:ユーザーが自分だけのAIを作る方法

GPTストアがオープンしたと聞いて、興味を持ったけど「どうやって使うの?」と思っているあなたへ。
ここでは、GPTストアの簡単な使い方を紹介します!

まず、GPTストアにアクセスするには、OpenAIの有料プラン(ChatGPT PlusやTeamなど)に登録する必要があります。
登録が済んだら、ストアのサイドバーにある「Explore GPTs」をクリックしましょう。すると、色々なGPTアプリケーションが表示されます。

このストアでは、AIアプリをキーワードで検索したり、カテゴリー(例えば教育、ライフスタイルなど)でフィルタリングすることができます。
また、「トレンド」や「今週のおすすめ」といったセクションもあり、人気のあるGPTアプリを簡単に見つけられます。

さて、自分でAIを作りたい場合はどうするかというと、GPTストアには「ノーコード」という機能があります。これは、プログラミングの知識がなくても、簡単にカスタムAIを作ることができるんです。

例えば、自分の好きな話題について教えてくれるAIや、自分の趣味に合った活動を提案してくれるAIなど、自分のニーズに合わせてAIをカスタマイズできます。

GPTストアを使えば、自分だけの特別なAIを作り、日常生活や学習に役立てることができます。興味がある人は、ぜひ試してみてくださいね!

ChatGPT PlusとTeamプラン:GPTストアで利用可能な新機能

GPTストアで使える特別なプラン、ChatGPT PlusとTeamについてお話ししようと思います。
これらは、GPTストアでより多くの機能を使うための有料のサービスです。

まず、ChatGPT Plusは個人向けのプランです。このプランを使うと、GPTストアの特定の機能をより速く、より便利に使うことができます。

例えば、AIが文章を書くスピードが速くなったり、より詳しい情報を提供してくれたりするんです。

次に、Teamプランは、最大149人のグループ向けに設計されています。
このプランは、ChatGPT Plusよりもさらに多くの機能を利用できます。たとえば、DALL·Eやブラウジング機能、高度なデータ分析ツールを制限なく使うことができるんですよ。また、Teamプランにはワークスペース管理用のコンソールが含まれていて、チームで作成したGPTを共有することもできます。

料金については、ChatGPT Plusは月額の料金が必要ですが、Teamプランは利用者一人あたり月額30ドル(年契約で月額25ドル)です。これにより、学校のクラブ活動やプロジェクトチームで、AIを活用して楽しく学ぶことができるんです。

GPTストアのこれらのプランを使うと、AIの世界がもっと身近になり、勉強や趣味に役立てることができます。興味のある人は、ぜひチェックしてみてくださいね!

GPTストアでビジネスを加速:カスタムGPTの活用法

GPTストアを使ってどうやってビジネスを加速させるかについてお話ししようと思います。

GPTストアはただのAIプラットフォームではありません。ビジネスの世界にも大きな影響を与えるツールなんです。

GPTストアでは、ノーコードで簡単にカスタムGPTを作ることができます。
これは、自分のビジネスに合った特別なAIを作ることを意味します。
例えば、自動でお客様の質問に答えるAIを作ったり、製品の説明をするAIを作ることができます。

特に、小さなビジネスやスタートアップにとっては、GPTストアはとても便利です。
なぜなら、人を雇うよりもコストが低く、効率的に仕事を進めることができるからです。
例えば、お店のウェブサイトでお客様の質問に自動で答えるチャットボットを作れば、スタッフは他の重要な仕事に集中できます。

また、GPTを使って、商品の説明やマーケティングのコンテンツを作成することもできます。
これにより、より多くのお客様に製品やサービスを紹介することが可能になります。

GPTストアを使うことで、ビジネスを成長させる新しい方法が見つかるかもしれません。
AIの力を借りて、ビジネスを次のレベルに引き上げましょう!

ノーコードでAI開発:GPTストアの魅力とは

今日は、GPTストアのすごい機能、ノーコードでAIを開発できることについてお話しします。
この機能は、誰でも簡単にAIを作ることができるんですよ!

「ノーコード」とは、プログラミングの知識がなくてもAIを作ることができるという意味です。
普通、AIを作るには複雑なプログラムが必要ですが、GPTストアでは特別なツールを使って、誰でも簡単にAIを作成できるんです。

たとえば、自分だけのチャットボットを作ってみたいと思ったら、GPTストアを使えば、好きな質問に答えるAIを作ることができます。

好きなアニメのキャラクターについて話すAIや、趣味のスポーツについて教えてくれるAIなど、自分の興味に合わせてAIをカスタマイズすることが可能です。

このように、GPTストアのノーコード機能を使えば、AIに関する知識がなくても、自分だけのオリジナルAIを作ることができます。
学校のプロジェクトや趣味の活動にも活用できるので、とても便利です。

●ウチでもGPTsを作ってます。ぜひ利用してみてください。リンクはこちらから。

GPTストアは、AI技術をもっと身近に感じさせてくれる素晴らしいツールです。興味がある人はぜひ挑戦してみてくださいね!

GPTストアの収益化プログラム:新しいビジネスチャンスを見つける

今日はGPTストアの興味深い部分、収益化プログラムについてお話しします。
これは少し難しいかもしれませんが、将来ビジネスを始めたいと思っている人にはとても役立つ情報ですよ!

GPTストアの収益化プログラムでは、自分で作ったGPTアプリをストアで公開し、それが人気を集めると、お金を稼ぐことができます。
つまり、クリエイティブなアイデアがあれば、それを使ってビジネスを始めることが可能になるんです。

たとえば、あなたが料理が好きだとしましょう。その場合、料理レシピを教えてくれるGPTアプリを作って、GPTストアに公開することができます。

そのアプリがたくさんの人に使われれば、それに応じて収入を得ることができるようになります。

また、このプログラムは、特にアメリカのGPTビルダーを対象に始められる予定ですが、これが世界中に広がる可能性もあります。
このようなプログラムは、自分のスキルや趣味を活かして、将来的にビジネスを展開する良い機会になるかもしれません。

GPTストアの収益化プログラムは、AI技術を使った新しい形のビジネスを可能にします。これからどんな素晴らしいアイデアが生まれるのか、とても楽しみですね!

まとめ

いよいよ、GTPストアでオリジナルのチャットボットを公開できるようになりました。

自分で作ったGPTsを世界中の方達に使ってもらいましょう。
そして、結果としてマネタイズできれば、さらにGPTクリエイターにとって有益なプログラムになるかも知れません。

GPTストアの今後に期待しましょう。

AIのchatGPTを自分独自に作れるGPTsを制作しています

AIのchatGPTを自分独自に作れるGPTsを制作しています。

ご希望のGPTsの制作希望の方は、お問合せよりご連絡ください。

●下記が公開中のGPTsです。
まだまだストックがありまして、未公開の作品多数です。
ちょこちょこ公開していきます。ご期待ください。

●ご利用は上記の目次からリンク先へ飛んでください。

 

 

********************

幼稚園児向け 数の足し算

足し算を覚えたての人でもできるように、ひらがな対応です。

正解するとほめてくれます。

https://chat.openai.com/g/g-EtG9DOYbG-potupokun-you-zhi-yuan-er-shu-nozu-sisuan

********************

幼稚園児向け AI家庭教師 ポッポくん

AI家庭教師が幼稚園児向けの最適な問題を出してくれます。
ひらがな、漢字両対応。
詳しい解説もしてくれます。
幼稚園のお子さんを持つお母様方は、ぜひ使ってみてください。

https://chat.openai.com/g/g-fowLhvS7H-you-zhi-yuan-er-xiang-ke-aijia-ting-jiao-shi-potupokun

 

 

********************

電博堂 AI広告代理店

AIの広告代理店、電博堂がメンバーと議論して広告戦略を練っていきます。

ぜひ利用してみてください。

https://chat.openai.com/g/g-lDy4DN5kh-dian-bo-tang-aiguang-gao-dai-li-dian

 

********************

朝までチャットテレビ

あなたが与えたテーマを、専門家と有識者がそのテーマに沿って激しい討論バトルを展開します。
討論司会者は「田丸総二郎」と言うジャーナリストで、登壇者をズバッと仕切っていきます。

https://chat.openai.com/g/g-ee0E3oDuv-zhao-madetiyatutoterebi

********************

AI動物変身写真館

あたなのお好きな動物をご希望の職業へ変身させちゃいます。

https://chat.openai.com/g/g-mONPcmgDi-aidong-wu-bian-shen-xie-zhen-guan

********************

・Introducing Japanese Animation 海外版 日本のマンガを紹介します
海外の方向けに日本のアニメを紹介するGPTs

These GTPs are an introduction of Japanese animation to the international audience.

Example: Shonen magazine Sports
and so on, please enter.

リンク先はこちら↓
https://chat.openai.com/g/g-PqTZlaSSg-introducing-japanese-animation-hai-wai-ban-ri-ben-nomangawoshao-jie-simasu

 

*********************

・Kanjiya Positive Kanji and Like a lesson learned.
漢字屋 海外の方に日本の漢字と故事成語を紹介するGPTsです

以下、英語で表記します。

These GPTs offer positive Japanese kanji and lessons learned.
We encourage foreign visitors interested in Japanese Kanji to take advantage of this site.
リンク先はこちら↓

 

**********************

ゴルフ野性塾の坂田プロの口調で、経営や起業のお悩みに答えてくれるGPTsを作りました。

「経営野性塾 教えて坂田部塾長」

https://chat.openai.com/g/g-yMovbPKIo-jing-ying-ye-xing-shu-jiao-eteban-tian-bu-shi-jiang

⚫️インスタはリンクへ飛べないので、ツイッターで
#ゴルフ野性塾
で検索かけると出るかもです。
さすれば飛べます。

⚫️今のところ使えるのはchat GPTのPlusに課金しているユーザーのみです。

正直ちょっとパロディっぽいですが、質問にはGPT-4が真摯に答えてくれます。

ゴルフ野性塾ファンの方々には楽しんでもらえるかと。

ぜひご利用してみてください。

**********************

ゴルフ野性塾の坂田プロの口調で、スポーツのお悩みに答えてくれるGPTsを作りました。

「スポーツ野性塾 教えて坂田部塾長」

https://chat.openai.com/g/g-pS7iZ1wJh-supotuye-xing-shu-jiao-eteban-tian-bu-shi-jiang

⚫️インスタはリンクへ飛べないので、ツイッターで
#ゴルフ野性塾
で検索かけると出るかもです。
さすれば飛べます。

⚫️今のところ使えるのはchat GPTのPlusに課金しているユーザーのみです。

正直ちょっとパロディっぽいですが、質問にはGPT-4が真摯に答えてくれます。

ゴルフ野性塾ファンの方々には楽しんでもらえるかと。

ぜひご利用してみてください。

***********************

格闘技の勝敗を予想するGPT sを作りました。

「予想屋次郎 AI格闘技予想屋」

https://chat.openai.com/g/g-mW7uaxmcr-yu-xiang-wu-ci-lang-aige-dou-ji-yu-xiang-wu-ver0-6

なかなか面白いものができたので格闘技好きの皆さんと共有したいと思います。

現役対過去の選手もオッケーです。

使い方は
試合形式 選手2名を入力してください。

例)MMA マクレガー ボブサップ

試合形式と選手同士はスペースで開けてください。

AIが情報を収集して解析するので、回答が出るまで若干時間待ちです。

過去のあの選手と今のあの選手が対戦したら。

こないだボクシングの
マイクタイソンとモハメッドアリを予想してみました。

なーるほどです。

皆さんも、ぜひお試しください。

大規模言語モデルXwin-LMとGPT-4の回答を比較してみました

Xwin-LMとは

Xwin-LMとは、中国科学院と精華大学の研究者によって開発された大規模言語モデルで、MetaのLlama 2を基盤にしたものです。

公開された3種類のモデルの中で、700億パラメータのモデルは、AlpacaEvalの評価でGPT-4を超えて第1位を取得したようですね。

早速、google colabで実装してみました。
モデルは70Bのやつですので、700億パラメータのものです。

下記にプロンプトをいれてのテキスト生成をやってみました。
比較用にGPT-4のやつも載せておきます。

体感ですが、やはりGPT-4の方が、正確で速いイメージです。
ただこの辺はGPUの性能も影響しているので何とも言えないところですが。

google colab
A100
ハイメモリ
での体感です。

では下記が回答です。

Xwin-LMとGPT-4の回答を比較してみました。機械学習系

Xwin-LM
質問 ニューラルネットワークのバックプロパゲーションの仕組みを詳しく説明してください

回答
バックプロパゲーションは、ニューラルネットワークの学習アルゴリズムの一つで、誤った予測や不適切な出力を生成した場合に、誤差を最小化するために適切な重みを調整する方法です。

バックプロパゲーションでは、誤差の値に基づいて、隠れ層のノードと出力層のノードとの間の重みを調整します。これにより、モデルは誤差を減らし、より正確な予測や出力を生成できるようになります。

バックプロパゲーションの仕組みは以下の通りです。

1. 教師データ(正解のラベル)と実際の出力を比較し、誤差を計算します。

2. 誤差を使用して、隠れ層のノードと出力層のノードとの間の重みを調整します。誤差が大きい場合、重みは大きく調整されます。

3. 隠れ層のノードの活性化値を更新し、出力層のノードに適用します。これにより、誤差が最小化されるように出力が調整されます。

4. 隠れ層のノードと入力層のノードとの間の重み→

*****

GPT-4
質問 上記と同じ

回答
バックプロパゲーション(Backpropagation)は、ニューラルネットワークを訓練する際の主要なアルゴリズムの一つです。このアルゴリズムは、ネットワークの出力と目標出力との間の誤差を最小化するために、ネットワークの重みを調整します。

以下に、バックプロパゲーションの基本的なステップを詳しく説明します:

順伝播(Forward Propagation)
入力データをネットワークの入力層から出力層まで伝播させ、各ニューロンの出力を計算します。
この際、各層のニューロンの出力は、重み付きの入力の合計に活性化関数を適用することで得られます。

誤差の計算
ネットワークの出力層での出力と目標出力との差(誤差)を計算します。
この誤差は、損失関数(例:平均二乗誤差)を用いて計算されることが多いです。
誤差の逆伝播(Backward Propagation)

出力層から入力層に向かって、誤差を逆伝播させます。
各ニューロンの誤差に対する貢献度(誤差に対する偏微分)を計算します。これは、連鎖律を使用して計算されます。

重みの更新
計算された偏微分を使用して、各重みを更新します。
重みの更新には、学習率というハイパーパラメータが使用されます。学習率は、重みの更新の大きさを制御します。
重みの更新式は、以下のようになります:

Xwin-LMとGPT-4の回答を比較してみました。文学系

もういっちょやってみます。
お次は文学系で。

Xwin-LM

質問
村上春樹の作品の中で、彼のスタイルやテーマが最も顕著に表れているものは何ですか?その理由も合わせて説明してください。

回答
村上春樹の作品で最もスタイルやテーマが顕著に表れているものは、『羊の歴史』です。この小説は、独自の文体と鋭い観察眼を武器に、現代社会の問題を問い直す作品です。

その理由は以下の通りです。

1. 文体: 村上春樹は、独特の文体で知られています。『羊の歴史』でも、独特の文体で現代社会の問題を浮き彫りにしています。

2. 観察眼: 村上春樹は、現代社会の問題を鋭い観察眼で捉えています。『羊の歴史』では、個人の自由と社会的責任のバランス、異文化間の対話、そして暴力と戦争の悲劇など、現代社会が直面する複雑な問題を描きます。

3. テーマ: この小説では、個人の自己実現という村上春樹の代表的なテーマが繰り広げられます。主人公の青年は、羊の皮をかぶった姿で暮らすことで、社会的な拘束から解放され、自己実現に向けて成長していきます。

このように、『羊の歴史』は→

*****

GPT-4
質問 同じ質問

回答
村上春樹は多くの作品を手がけており、彼のスタイルやテーマは多岐にわたりますが、特に「ノルウェイの森」や「1Q84」などが彼の代表的なスタイルやテーマを色濃く反映していると言われています。

ノルウェイの森:
この作品は、村上春樹の初期の作品であり、彼のリアルでありながらも夢のような文体や、孤独や愛、死といったテーマが織り交ぜられています。

青春時代の混乱や葛藤、そして成熟への過程を通じて、人間の心の奥深さや複雑さを描き出しています。

1Q84:
この作品は、村上春樹の後期の作品であり、彼の特徴的なマジックリアリズムや複雑な物語性が顕著に表れています。
二つの異なる世界や時間の流れ、そしてそれらの間で繋がり合う人々の運命や愛を中心に、彼の独特の哲学や世界観が展開されています。

理由:
村上春樹の作品は、日常の中に潜む非日常や神秘性を巧みに描き出すことで知られています。彼の作品には、現実と夢、意識と無意識の境界が曖昧になるような独特の雰囲気やリズムがあります。

また、彼の作品には、孤独や愛、死、運命といった普遍的なテーマが織り込まれており、それらのテーマを通じて人間の心の奥深さや複雑さを探求しています。

これらの理由から、特に「ノルウェイの森」や「1Q84」は、村上春樹のスタイルやテーマが最も顕著に表れている作品と言えるでしょう。

大規模言語モデルXwin-LMとGPT-4の回答を比較してみましたのまとめ

Xwin-LMは、結構レベルが高いですね。
Llama2を元に開発しただけあって、精度は高いかもです。

あとはスピードですかね。

トータルの評価だとまだまだGPT-4の方が上でしょうか。
パラメータの数が圧倒的に違うので、仕方がないかもです。

ただLlama2はちょっと気になる存在ですね。
オープンソースだし、いろいろいじっても無料ですしね。

今後も期待です。

#Xwin-LM #gpt4と比較 #llm #大規模言語モデル

大規模言語モデル ELYZA-japanese-Llama-2-7b-instructを使ってみた

X 旧Twitterはこちら。
https://twitter.com/ison1232

************

大規模言語モデル ELYZA-japanese-Llama-2-7b-instructを使ってみた

東大 松尾研出身のAIベンチャー「ELYZA」が開発した
ELYZA-japanese-Llama-2-7b-instruct
をインストして使ってみました。

llama2をベースに日本語を事前学習させたモデルらしい。
商用利用可能なので、そこがいいですね。

instructって名前に付いているので、instruct tuningしてるやつですね。

instruct tyningとは、質問に指示を与えて、それについてのタスクの実行を答えさせるやつです。
通常の質問応答タスクと違って、汎用性があるというか、未知の解答にも答えられるようになるらしいです。

これからのファインチューニングの主流になるんですかね。

プロンプトと応答文をGPT-4に作ってもらう。

以下、質問と応答を載せます。
ちなみに、質問(プロンプト)はGPT-4に作ってもらったものです。
なんでもLLMの性能評価にいいらしいです。

応答に関しては比較のために、ELYZAとGPT-4の応答文を載せてみました。

まあ、パラメータ数が圧倒的に違いますから、GPT-4の方が優勢ですが、そこはねえ。
ELYZAはフリーで商用利用可ですから、それも魅力のひとつでしょう。

では、質問と応答をどうぞ。

プロンプト:時間とは何ですか?それはどのように私たちの生活や認識に影響を与えますか?

●時間とは何ですか?それはどのように私たちの生活や認識に影響を与えますか?

ELYZA応答
時間とは、ある事象が起こるまでの間隔のことを指します。たとえば、ある物体が光の速度で移動する際には、その物体の位置から観測者の位置へと時間的な流れとともに情報が伝わります。

また、時間は空間とともに万有引力の法則によって定められた、宇宙の普遍的な構造でもあります。

時間は私たちの生活や認識に大きな影響を与えています。例えば、時計は時間を測定することで私たちの生活を調整し、時間を予測することで計画を立てるのに役立ちます。また、時間は記憶の構造化や、過去と未来の概念を定義する上で重要な役割を果たしています。

GPT-4応答
時間は、出来事が発生する順序や間隔を測定するための抽象的な概念であり、物理的な宇宙の基本的な次元の一部としても理解されています。この概念は、人類の歴史を通じてさまざまな文化や哲学において探求されてきました。時間は、日常のスケジュールの計画から、科学的な実験の実施、歴史の研究に至るまで、あらゆる活動の中心に位置しています。

私たちの生活における時間の影響は計り知れないものがあります。それは私たちが行う一つ一つの活動、過去を回顧す

プロンプト:2150年の未来都市について、短い物語を書いてください

●2150年の未来都市について、短い物語を書いてください。

ELYZA応答
2150年の未来都市は、高層ビルが立ち並ぶ街並みとは裏腹に、豊かな自然が溢れていた。

その街の中心には、巨大なオブジェクトが存在した。それは、昔々人間が作ったという、廃墟の城だった。

その城の周りには、様々な動植物が生息していた。その中には、人間の手によって改良された動植物もいた。

その街に住む人々は、その城を訪れる人が増えることを望んでいた。

その頃、城の調査をしていた一団が、珍しい植物を発見した。それは、人間の言葉を理解し、話すことができる植物だった。

彼らは、その植物を連れて帰ろうとしたが、その植物はそれを拒んだ。

「私はここにいたい。」

彼らは、その植物の言葉を受け入れ、そのまま城に残った。

その植物は、城の住民と共に暮らし始めた。彼らは、彼女に名前をつけ、彼女も彼らのことを呼んだ。

彼女の名前は、エルフィーナ。彼女は、城の住民の間で、彼らの話し相手となり、彼らの悩み

GPT-4応答
2150年、未来都市エクセリオンは空に浮かぶ巨大な都市として知られていた。地球の地表は自然に戻り、植物や動物たちが豊かに生息している。エクセリオンは透明なドームに囲まれ、高度なエネルギーシステムにより持続可能な生活が保たれていた。

アイラはエクセリオンで生まれ育った17歳の少女。彼女は都市の外の世界に憧れ、ある日ドローンで地表を探索することに決めた。アイラが操作するドローンは、彼女の瞳に映る映像と連動しており、彼女の心の動きに応じて飛行する。

ドローンを飛ばし始めると、アイラは美しい緑の森や青い湖を発見。かつて人々が住んでいたであろう廃墟も見える。アイラは驚くほどの自然の美しさと、かつての人々の生活の痕跡に心を奪われた。

しかし、彼女が最も心を打たれたのは、森の中に住む原住民の部族だった。彼らはシンプルで豊かな生活を送っており、アイラは彼らと共に数日を過ご

プロンプト:日本の伝統的な「おもてなし」文化を説明してください

●日本の伝統的な「おもてなし」文化を説明してください。

ELYZA応答
日本の伝統的な「おもてなし」文化を説明します。

日本のおもてなしは、お客さまに心からの感謝と祝福の気持ちを伝えることを目的としています。日本のおもてなしは、精神的なものであり、物理的なものではありません。

日本のおもてなしの特徴は、心からの感謝と祝福の気持ちを伝えることを目的としている点です。日本のおもてなしは、お客さまに対して心からの感謝と祝福の気持ちを伝えるための行動です。

日本のおもてなしの例としては、茶道や華道、着付けなどが挙げられます。日本のおもてなしは、心からの感謝と祝福の気持ちを伝えることを目的としているため、心のこもった行動が重要となります。

GPT-4応答
日本の伝統的な「おもてなし」文化は、相手の立場や気持ちを尊重し、細やかな心配りと気配りを行うことを中心にした接客の精神を指します。以下、主な特徴や背景を簡潔に説明します。

相手を尊重する: おもてなしの根底には、相手を尊重し、その心地よさを第一に考えるという思いやりがあります。

先読みの心配り: 相手が何を必要としているのか、何を望んでいるのかを先読みし、それを提供すること。例えば、訪れた客が喉を潤したそうにしている時、言われる前に水やお茶を出すなど。

細やかな気配り: 例として、季節に合わせた食材を使った料理の提供や、部屋の温度

今度は英語で答えてもらいます。

プロンプト:日本の伝統的な「おもてなし」文化を英語で説明してください

●日本の伝統的な「おもてなし」文化を英語で説明してください。

ELYZA応答
日本の伝統的な「おもてなし」文化を英語で説明します。

日本のおもてなしは、お客さんを心から歓迎し、心からのおもてなしをすることです。日本人はおもてなしの精神に従って、お客さんに心からの笑顔と感謝の気持ちを伝えます。おもてなしの中心は、お客さんの要望に応えることと、心からの笑顔です。日本のおもてなしは、心からの笑顔と感謝の気持ちを伝えることで、お客さんに満足してもらい、幸せな気持ちにします。

筆者談 英語で答えてないですねえ。

GPT-4応答
Certainly, here’s an explanation of Japan’s traditional “Omotenashi” culture in English:

“Omotenashi” is a Japanese term that captures the essence of traditional Japanese hospitality. It’s a concept deeply rooted in the country’s cultural fabric and reflects a commitment to providing impeccable service and genuine kindness without expecting anything in return. Key aspects of “Omotenashi” include:

Selfless Hospitality: At its core, “Omotenashi” means to wholeheartedly take care of guests without expecting any compensation or favor in return. It’s an authentic gesture of kindness and respect.

Anticipatory Service: It emphasizes understanding the needs of the guest even before they articulate them. This

筆者談: GPT-4は英語でバッチリ答えてます。

プロンプト:量子コンピュータとは何ですか?それは古典的なコンピュータとどのように異なりますか?

●量子コンピュータとは何ですか?それは古典的なコンピュータとどのように異なりますか?

ELYZA応答
量子コンピュータは、量子力学の原理を利用したコンピュータのことです。現在のコンピュータは、ビットと呼ばれる最小単位の情報を取り扱いますが、量子コンピュータでは、量子ビットと呼ばれる最小単位の情報を取り扱います。量子ビットは、クロックという量子力学の概念を用いて情報を扱うことができるため、現在のコンピュータよりも高速に処理を行うことができます。また、量子コンピュータはクロックの量子効果を利用して、現在のコンピュータでは計算できない問題も解決することが期待されています。

GPT-4応答
量子コンピュータは、量子力学の原理を利用して情報を処理する新しいタイプのコンピュータです。古典的なコンピュータとの主な違いは、情報の表現と処理方法にあります。

情報の表現:

古典的なコンピュータ: ビットを使用して情報を表現します。ビットは0または1の状態を持つことができます。
量子コンピュータ: 量子ビット、通常「キュビット」と呼ばれるものを使用します。キュビットは0、1の状態だけでなく、その2つの状態の重ね合わせを同時に持つことができます。
並列処理能力:

量子コンピュータは量子重ね合わせの性質を利用して、多数の計算を同時に行う能力があります。これにより、一部の問題に対しては古典的なコンピュータよりもはるかに高速に計算を行うことが可能です。
エンタングルメント:

量子コンピュータは「量子もつれ」という現象も利用します。これは2つ以上のキュビットが相互に関連付けられ、一方のキュビットの状態が変わると、もう一方のキュビットの状態も即座に

***********ここまで

大規模言語モデル ELYZA-japanese-Llama-2-7b-instructを使ってみたのまとめ

以上、大規模言語モデル ELYZA-japanese-Llama-2-7b-instructを使ってみました。

応答に関しては、ELYZAは通常の文章でまとめていきます。

一方、GPT-4は箇条書きにして段落ごとにまとめて応答していきますね。
詳しく知りたい時は、さらにその段落を攻めていけばいいと。

ベースとなったモデルのllama2の評判がいいですから、ELYZAも結構やりますね。
もっと大きいパラメータのモデルも作っているようで、今後が楽しみです。

ChatGPTの前身、GPT2のファインチューニングを実行してみた

X 旧Twitterはこちら。
https://twitter.com/ison1232

************

chatGPTなどの大規模言語モデルのLLMが流行っていますが、今現在の最新モデルはGPT4。
これのいくつか前のモデルGPT2をファインチューニングしてみました。

大規模言語モデルなどに実行する、ファインチューニングとは何か

ちなみに、ファインチューニングとは何かをちょこっと解説。

まず大規模言語モデルってのは、事前学習といって、ネット上の大量のテキストデータを読み込んで学習しています。

chatGPTなんかは英語での学習量が多いので、英語は強いです。
一方、日本語はというと、多少学習しているとは言え、英語ほどは勉強していないので、若干弱い感はあります。

そんな大規模言語モデルですが、この事前学習で特定の言語を習得していきます。

言語を習得した大規模言語モデルですが、専門的な内容になると若干学習量が不足していたりします。
これは当然ですね。
専門的な内容はネットには無かったり、あってもあっさりとしたものしかアップされてない場合もあります。

で、例えばゴルフのことをchatGPTに聞きたいと。
試してみると、結構まともに答えますが、深堀りした内容になると違った答えが返ってきたりします。

そこでチャットGPTに足りない専門的な内容を学習させていくのが、ファインチューニングという方法です。

結果的に、chatGPTが法律の専門家になったり、医療のプロフェッショナルになったりできる訳です。

ちなみに「ファインチューニング」の用語をGPT4に聞いてみました。

****ここから

ファインチューニングは、既存の言語モデルを特定のタスクやドメインに適応させるプロセスです。

ファインチューニングは、元の言語モデルを大規模な汎用データセット(例:Wikipediaなど)で事前訓練した後に行われます。これにより、言語モデルは一般的な言語理解能力を獲得します。

しかし、特定のタスクやドメインにおいてより優れたパフォーマンスを発揮するためには、モデルをタスク固有のデータセットで追加のトレーニングを行う必要があります。これがファインチューニングの目的です。

具体的には、ファインチューニングでは、タスクに関連するデータセットを用いてモデルを再訓練します。タスクには様々なものがあります。例えば、テキスト生成、質問応答、文書分類などです。

ファインチューニングのプロセスでは、事前訓練済みモデルの一部またはすべてのパラメータを新しいデータセットで再訓練し、特定のタスクに特化させます。これにより、モデルはタスクに対してより精度の高い予測や生成ができるようになります。

ファインチューニングは、特定のタスクにおいて既存のモデルを最適化するための効果的な手法です。それによって、モデルは特定のドメインやアプリケーションに適応しやすくなり、より良い結果を得ることができます。

****ここまで

おわかりでしょうか。
特定のタスクや専門的な内容を学習させたい時は、このファインチューニングが必要になるんです。

では実際にやってみましょう。

今回のファインチューニングをGPT2にした理由

今回はGPT2をファインチューニングしてみます。
ちなみに2023年7月現在、GPT3.5-turbo、GPT4はファインチューニングできません。
(年内中にはGPT3.5-turboもGTP4もできるようになる予定っぽいです)

ファインチューニングできるのはGPT2とGPT3とかになります。

GPT2は無料でできますが、GPT3はopenAIのAPI接続でやらないとなので、トークン数に応じて料金がかかります。

そこで今回は無料でできるGPT2を選択しました。

GPT2のファインチューニングの具体的な方法

結論から言うと、ちょっと前のモデルなので、結構エラーが出ます。
なのでググったり、GPTったりして解決していきます。

使うモデルはrinna社が出しているやつ。
これは事前学習に日本語でトレーニングされているのでよろしいかと。
こいつをファインチューニングしていきましょう。

Hugging Faceのrinnaモデル
https://huggingface.co/rinna/japanese-gpt2-medium

 

ファインチューニングはデータセットが非常に大事

まずは学習させるデータセットを作ります。
このデータセットを作るのは非常に大事な作業になります。

もしかしたら、大規模言語モデルのパラメータ数に匹敵するくらい大事かもです。
このデータセットの質次第で、ファインチューニング後の精度が随分変わってきます。

そんなこんなで、今回はゴルフの専門的な内容を作りたかったので、ゴルフのデータを制作します。

まずはデータセットの一部です。

****ここから

質問: ゴルフの歴史はいつ始まりましたか?
応答: ゴルフの起源は古代スコットランドにさかのぼります。15世紀頃からスコットランドでプレーされるようになり、その後世界中に広まりました。

質問: ゴルフをするために必要なクラブの種類は何ですか?
応答: ゴルフではドライバー、アイアン、ウェッジ、パターなど、さまざまなクラブが使用されます。それぞれのクラブには特定の用途や飛距離の特性があります。

質問: ゴルフで使われる最も長いクラブは何ですか?
応答: ゴルフで使われる最も長いクラブは「ドライバー」と呼ばれるクラブです。ドライバーはティーショットで使用され、飛距離を伸ばすために設計されています。

質問: ゴルフの試合で最も重要なスコアは何ですか?
応答: ゴルフの試合で最も重要なスコアは「トータルスコア」です。これはすべてのホールでのストローク数の合計を指します。

質問: ゴルフで使われる「パー」とは何ですか?
応答: ゴルフのホールは通常、パーと呼ばれる目標スコアが設定されています。パーはホールをプレーするために平均的なスコアを表し、ホールの難易度を示す目安となります。

****ここまで

全部で150の質問応答セットで、テキストのみのデータです。

開発はgoogle colabを使いますので、
このファイルを
/content/drive/MyDrive/保存したファイル名.txt
にアップしておきます。

※アップロード先は、各自の環境によります。
上記はgoogle driveを読み込んでいます。
各自で読み替えてください。

ちなみにGPT3だとjsonlファイルにするのですが、GPT2は通常のテキストを読み込めるらしいので、このデータを直接食わせてみます(食わせるとはお下品ですが、AI関連では俗語で結構使います)。

ファインチューニングの前後で推論を比較する

さてまずはファインチューニングの前に、GPT2にゴルフについて聞いてみましょう。

開発環境はgoogle colabを使います。
GPU
T4
ハイメモリ
あたりの設定です(設定は若干動かせると思います)。

推論のコードはこちら。

import文に使う pip installは各自で入れてください。


import torch
from transformers import T5Tokenizer, AutoModelForCausalLM

# テキストの準備
text = ‘ゴルフで使用される「パター」とは何ですか、’

# トークナイザーとモデルの準備
tokenizer = T5Tokenizer.from_pretrained(‘rinna/japanese-gpt2-medium’)
model = AutoModelForCausalLM.from_pretrained(‘rinna/japanese-gpt2-medium’)

# テキストを変換
input = tokenizer.encode(text, return_tensors=’pt’)

# 推論
model.eval()
with torch.no_grad():
output = model.generate(input, do_sample=True, max_length=100, num_return_sequences=1)
print(tokenizer.batch_decode(output))

早速質問してみます。

質問
ゴルフで使用される「パター」とは何ですか、

回答
そもそもシャフトとは、球を打ち上げたときに、その球がまっすぐな方向に転がるように設計された機械部品である。 ゴルフの場合はボールにラバーを張り付けてボールを飛ばす。 パッティングの場合は、球が上方向に転がるように作られているため、シャフトという器具は使われていない。 ゴルフボールは、ゴルフコースを作る上で非常に重要な道具である。 しかし、ゴルフプレー中、グリップで転がすボールを自分の体が横…。

ゴルフの専門的な学習をしていないので、イマイチな回答ですね。

 

ファインチューニングを実行する

ではファインチューニングをやっていきましょう。

コードはこちら。

#時間を計測
%%time
# ファインチューニングの実行
!python ./transformers/examples/language-modeling/run_clm.py \
–model_name_or_path=rinna/japanese-gpt2-medium \
–do_train \
–do_eval \
–_file=/content/drive/MyDrive/保存したファイル名.txt \
–num_train_epochs=100 \
–save_steps=5000 \
–save_total_limit=3 \
–per_device_train_batch_size=1 \
–per_device_eval_batch_size=1 \
–output_dir=output3/ \
–use_fast_tokenizer=False \
–logging_steps=50

エポック数100で学習させます。
(今回は簡略化して、trainのみで終わらせます)

トレーニング開始。

データセットの量がそれほど多くないので、10分位で終わりますね。

完成したモデルを読み込んで、ゴルフについて聞いてみましょう。

推論のコードはこちら。


import torch
from transformers import T5Tokenizer, AutoModelForCausalLM

# テキストの準備
text = ‘ゴルフで使用される「パター」とは何ですか、’

# トークナイザーとモデルの準備
tokenizer = T5Tokenizer.from_pretrained(‘rinna/japanese-gpt2-medium’)
model = AutoModelForCausalLM.from_pretrained(‘output3/’)

# テキストを変換
input = tokenizer.encode(text, return_tensors=’pt’)

# 推論
model.eval()
with torch.no_grad():
output = model.generate(input, do_sample=True, max_length=100, num_return_sequences=1)
print(tokenizer.batch_decode(output))

学習が終わったモデルを読み込んで、質問してみます。

質問
ゴルフで使用される「パター」とは何ですか

応答: ゴルフで使用される「パター」とは、グリーン上でボールを転がすためのクラブです。パターは短くて軽量であり、プレーヤーが正確なパットをするために使用されます。

どうでしょう。
いい感じに回答できてますね。

このようにファインチューニングをすると、chatGPTなどの大規模言語モデルはそれぞれの専門家として、ふるまえるようになるんですね。

ChatGPTの前身、GPT2のファインチューニングを実行してみたのまとめ

どうでしょう。
こんな感じでGPT2のファインチューニングの完成です。

これでゴルフの専門家?の一丁上がりですね。
まあデータが少ないので、ゴルフ中級者入口程度の受け答えですが(笑。

データを増やして学習させれば、いい感じのゴルフ先生になってくれます。

あとはパラメータ数が段違いのGPT4が、早くファインチューニングできるように、openAIさんにお願いするのみです。

どれだけ優秀な先生になってくれるのか、今から楽しみです。

※こちらではチャットGPTなどの各GPTシリーズのファインチューニングも承ります。
ご希望の方、ご相談はお問い合わせからご連絡ください。

大規模言語モデル LLMのFalconがオープンソースで公開

X 旧Twitterはこちら。
https://twitter.com/ison1232

***********

大規模言語モデルのFalconを実装していく

Falconとか言う大規模言語モデル LLMがオープンソースで公開されたようなので、早速google colabで動かしてみました。

Hugging Faceのオープンソース大規模言語モデル同士でスコアを競う「Open LLM Leaderboard」というランキングで
「Falcon-40B」モデルが1位を獲得したとか。

Falcon公式サイト
https://falconllm.tii.ae/

上記画像はHugging faceのページ

各社が独自の大規模言語モデルのLLMを作り始めた

最近は大規模言語モデルが結構いろんな団体からリリースされてます。
OpenAIのChatGPTクラスの超パラメータのLLMとかだと、事前学習するだけでも結構なコストがかかるようです。

なので、資金力があるところしかLLMを開発できなそうですが、実は、学習に使うデータセットの質を上げれば、パラメータ数が小さくても、それなりのAIは開発できるようです。

ただ、どうなんですかね。
Scaling Laws理論によればパラメータを増やすほど、AIの能力が上がっていくって説があります。

要はAGI(汎用人工知能)のすごいやつ、超絶AIっていうのでしょうか、人間の人智の遥か上をいくスーパーAIを作るとなると、やはり数兆単位のパラメータは要るかもしれないですね。

しかし、日常で使う会話程度の生成AIであれば、数十億パラメータでも、学習次第で十分な結果が出ると。
そんなところでしょうか。

この超絶AIはいつか必ずどこかが作るでしょうね。
それによって、人類が解決できなかった、いろんな事(核、医療、創薬、難問など)が解ける時代が来るのでしょう。

そのためにも、超絶AIは必要でしょう。
しかし、どこかでブレーキをかける術も作っておかないと、AIの暴走なんかも起こらないとも言えない。
電源を止めれば大丈夫ってな意見もありますが、超絶AIは電源を止められない何かを作りだすかも知れません。
人類の数千倍とかの知能を持ったとしたら、我々の考えつかない何かを作り出す可能性はあります。

OpenAIのCEOサム・アルトマンが、AI開発には原子力のような規制機関が必要との見解を出しましたが、
最先端の技術者ほど、AIの真の力がわかっているのではないでしょうか。

google colabでFalconを実装していく

さて、日常の会話程度をうまくこなす生成AIでしたら、今回のFalconの小さい方のモデルで十分です。
早速、google colabで実装してみましょう。

ちなみに、ランタイムでGPU、タイプT4、ハイメモリで実行しています。

!pip install transformers accelerate einops
from transformers import AutoTokenizer, AutoModelForCausalLM
import transformers
import torch

model = “tiiuae/falcon-7b-instruct”

tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = transformers.pipeline(
“text-generation”,
model=model,
tokenizer=tokenizer,
torch_dtype=torch.bfloat16,
trust_remote_code=True,
device_map=”auto”,
)

prompt = “What will the future of generative AI look like?”

sequences = pipeline(
prompt,
max_length=200,
do_sample=True,
top_k=10,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
)
for seq in sequences:
print(f”Result: {seq[‘generated_text’]}”)

実装後の推論部分を見てみましょう。
英語でのやり取りですけど、結構ちゃんと答えてくれます。

問い:
What will the future of generative AI look like?
生成AIの未来はどうなるでしょうか?

結果:
The future of generative AI looks very bright, indeed. With the advent of more powerful hardware and algorithms, AI has become more intelligent and efficient than ever before.続く…。

ジェネレイティブAIの未来は、実に明るいものになりそうです。より強力なハードウェアとアルゴリズムの登場により、AIはかつてないほどインテリジェントで効率的になりました。アプリケーションの面でも、その可能性は無限に広がっています。私たちが想像する最もエキサイティングな開発には、次のようなものがあります。続く…。

*******

改変する場合は、prompt = “○○○○” の部分を変えればいろんな質問が試せます。
また、max_length=200の数値を大きくすれば、さらにたくさんの言葉が返ってきます。
いろいろ改変してみてください。

一度上記のコードが動けば、あとはプロンプトを変えて下記だけ実行した方が処理は早いです。

prompt = “Write a poem about generative AI”

sequences = pipeline(
prompt,
max_length=200,
do_sample=True,
top_k=10,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
)

for seq in sequences:
print(f”Result: {seq[‘generated_text’]}”)

●実装が面倒な方は、公式Falconでチャットボットが用意してあります。
下記からお試しください。

https://huggingface.co/spaces/HuggingFaceH4/falcon-chat

●有志の方が、下記のリンクからパラメータが小さい方の「Falcon-7B-Instruct」をgoogle colabでの実装公開しています。
興味のある方はぜひ。

https://colab.research.google.com/drive/1RAEkxDRRjWU6T8dV8grR1imrrHV4Idj2?usp=sharing#scrollTo=N6KzsIXEkAfP

 

各社の大規模言語モデルをいじってみての感想

大規模言語モデルの新しいのが出ると、つい試したくなりますね。
英語での学習モデルが多いのですが、日本語で学習したサイバーエージェントのモデルとかrinna社のモデルとかも出ているので、興味のある方は試してください。

パラメータが大きいに越したことはないですが、あまりに大きいと通常のPCとかでは動かせないですよね。
なので適度な大きさのモデルで実装できるのが楽しいですね。

まあ自分のPCで動かさなくても、ChatGPTのようにブラウザやアプリからアクセスして使うのも全然ありなんですが、開発者としてはコードを見ながら、一行づつ実行している様を見るのも楽しいんですよね。

「開発者あるある」なんではないでしょうか。

ぜひみなさんもお試しください。

日本語版の大規模言語モデルLLMを使ってみた。rinna社バージョン

X 旧Twitterはこちら。
https://twitter.com/ison1232

************

日本語版の大規模言語モデルが登場

ついに日本語で学習された大規模言語モデルが登場しましたね。
それも同じ日に、2つ同時です。

一つはサイバーエージェント社の日本語LLM。
もうひとつは rinna社の日本語LLM。

サイバーのやつはパラメータ数が68億。
rinna社のやつは36億。

まあ、億を超えてるわけで、すごいことなんですが、何と言ってもChatGPTが1750億。

GPT-4なんかは公開せずっていう(多分何兆レベル。scaling low理論の限界にチャレンジですかね。詳しくはscaling lowで検索)。

すごい数のパラメータがひしめきあってるので、30億でも「ふーん、そうなのね」で済んでしまう。

でもこれだけのパラメータ数で、しかも日本語を専用に学習させたモデルですから、期待は持てます。

ちなみに大規模言語モデルっていうのは、略称するとLLM(Large Language Model)と呼ばれています。

ChatGPTに大規模言語モデルLLMについて聞いてみた

意味をChatGPTに聞いてみましょう。

*****************ここから。原文ママ

大規模言語モデルは、近年の人工知能の進歩の中で重要な役割を果たしています。これらのモデルは、巨大なデータセットを学習し、自然言語の理解と生成を行うことができます。大規模言語モデルは、機械翻訳、文章生成、会話エージェント、情報検索、自動要約など、さまざまなタスクに利用されています。

大規模言語モデルの一例としては、GPT-3が挙げられます。GPT-3は、OpenAIが開発した最先端のモデルであり、数十億のパラメータを持っています。このモデルは、人間に近い文章を生成することができ、非常に優れた性能を持っています。

しかし、大規模言語モデルにはいくつかの制約も存在します。それらは、計算リソースの要求、データのプライバシーとセキュリティの問題、バイアスや偏見の反映などです。これらの制約に対処するためには、モデルの開発者や利用者が倫理的な観点を考慮し、適切なガイドラインや規制を策定する必要があります。

大規模言語モデルの進化は、今後ますます加速していくことが予想されます。より高度な自然言語処理能力を持つモデルが登場し、私たちの日常生活やビジネスの様々な側面に影響を与えるでしょう。しかし、その発展には慎重なアプローチが求められ、技術と倫理のバランスを取りながら進めていく必要があります。

************ここまで。原文ママ

だそうです。
GPT-3のパラメータ数は違ってますね。
1750億ですよね。

まあ、さておき。
早速、インストールして使ってみましょう。

rinna社の対話モデルをインストール

まずはrinna社から。

rinna社のやつはモデルが2つあって、汎用モデルと対話モデルがあります。
今回は対話に特化したやつの方が面白いかなと思ったので、対話モデルをいじってみましょう。

公開先はHugging face
機械学習のモデルがわんさかアップされているサイトです。

URLはこちら。
汎用GPT言語モデル
https://huggingface.co/rinna/japanese-gpt-neox-3.6b

対話GPT言語モデル
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft

環境はgoogle colab proのスタンダード。

pro版で、GPUの設定を
A100
ハイメモリ
で、いってみます。

まずは下記のコマンドでインストールしていきます。

パッケージのインストール。
!pip install transformers sentencepiece

続いてこちら。

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

# トークナイザーとモデルの準備
tokenizer = AutoTokenizer.from_pretrained(
“rinna/japanese-gpt-neox-3.6b-instruction-sft”,
use_fast=False
)
model = AutoModelForCausalLM.from_pretrained(
“rinna/japanese-gpt-neox-3.6b-instruction-sft”
).to(“cuda”)

学習済みのモデルを落として、modelにセットする感じですね。

rinna社の対話モデルで推論してみた

で、推論してみます。

promptに質問文を入れるのですが、結構決まりがあるようで、詳細はHugging faceのサイトを読んでください。

簡単に説明すると、

prompt = “ユーザー: 首都の意味を答えてください。?システム: ”

このように、質問文の後に
システム: ”
を入れてとのこと。
最後は空白を入れるそうです。

では、これで推論のコードを記します。

# プロンプトの準備
prompt = “ユーザー: 首都の意味を答えてください。?システム: ”

# 推論
token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors=”pt”)
with torch.no_grad():
output_ids = model.generate(
token_ids.to(model.device),
do_sample=True,
max_new_tokens=300,
temperature=0.7,
pad_token_id=tokenizer.pad_token_id,
bos_token_id=tokenizer.bos_token_id,
eos_token_id=tokenizer.eos_token_id
)
output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1):])
output = output.replace(“”, “\n”)
print(output)

 

質問:
首都の意味を答えてください。

回答:
首都とは、国の首都であり、国の政府所在地であり、政府の所在地です。首都とは、国の中央政府や行政の中心であり、国の政治や文化の中心でもあります。

だそうです。
ん〜ん、てな感じもしないことはないですが、結構ちゃんとした答えが返ってきます。
やはり日本語で学習したやつは違いますね。

max_new_tokens=300 の値をいじると、返答の文字数を変動できます。
いろいろいじって遊んでみてください。

別に、サイバーのやつも使ってみましたが、両者ともどっこいどっこいといった所でしょうか。

ChatGPTにはまだまだ勝てない感じですが、こういった日本語LLMもどんどん開発していって、世界をリードしていってほしいものです。

大規模言語モデルLLMの日本語版の今後は?

そういえば先日、日本のスーパーコンピューターの「富岳」でしたっけ。これを使って日本語LLMを作るみたいな発表がありましたよね。

本気出してやれば、計算スピードはピカイチなんだから、結構早く目標を達成できるのではないでしょうか。
ただ、データセットをどうするとか、細かいパラメータの設定なんかは試行錯誤が必要なので、まだまだGAFAMには勝てないでしょう。

でもチャレンジすることに意味があるんですよね。
頑張ってください チーム「富岳」。
期待しています。

*******************

PAGE TOP