Google、対話AI「Bard」の基盤となる「LaMDA」のAPIを来月、開発者向けに試用開始すると明らかに

2023年2月8日

Googleは日本時間の2月7日、急激に人気が高まっているAIチャットサービス「ChatGPT」とその開発元であるOpenAIに対抗すべく、同社が開発してきた「LaMDA」(Language Model for Dialogue Applications:対話アプリケーション用言語モデル) を基盤とした会話型AIサービス「Bard」を発表しました(Google Japanのブログ)。

下記はGoogle CEOであるスンダー・ピチャイ氏のツイートです。

と同時に、LaMDAを活用したGenerative Language API(生成言語API)を来月、個人や企業の開発者向けに試用公開することも合わせて発表しています。

下記はGoogle Japan Blogに投稿された記事「AI の次の重要な一歩」からの引用です。

来月には、個人の開発者、クリエイター、企業に LaMDA を活用した Generative Language API の試用を開始し、その後さまざまなモデルを提供する予定です。いずれは、AI を使ったより革新的なアプリケーションを簡単に構築できるようなツール群や API を開発する予定です。

Generative Language APIが利用できるようになれば、おそらく人間と対話するチャットボットや、テキストを与えると画像やプログラムのコードを生成する機能などを利用できるようになると思われます。

すでにマイクロソフトはMicrosoft AzureでChatGPTの基となったOpenAI社のAIモデルをAPIで提供する「Azure OpenAI Service」を1月から正式版として提供開始しています。さらに、Azure上でチャットサービス「ChatGPT」の提供もまもなく開始するとされています。

参考:マイクロソフト、GPT-3.5やDALL・E 2のAIモデルを含む「Azure OpenAI Service」正式に提供開始。まもなくAzure上で学習させたChatGPTなども実行可能に

GoogleのAPIも来月には試用可能になるとすれば、開発者にとってAIを利用するためのAPIが急速に充実することになり、AIを用いたさまざまなアプリケーションが登場することでしょう。

Googleが提供するAIサービスに関しては、今日の夜、日本時間22時30分からのオンラインイベントで詳しい発表がありそうです。

あわせて読みたい

機械学習・AI Google




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本