Google、対話AI「Bard」の基盤となる「LaMDA」のAPIを来月、開発者向けに試用開始すると明らかに

2023年2月8日

Googleは日本時間の2月7日、急激に人気が高まっているAIチャットサービス「ChatGPT」とその開発元であるOpenAIに対抗すべく、同社が開発してきた「LaMDA」(Language Model for Dialogue Applications:対話アプリケーション用言語モデル) を基盤とした会話型AIサービス「Bard」を発表しました(Google Japanのブログ)。

下記はGoogle CEOであるスンダー・ピチャイ氏のツイートです。

と同時に、LaMDAを活用したGenerative Language API(生成言語API)を来月、個人や企業の開発者向けに試用公開することも合わせて発表しています。

下記はGoogle Japan Blogに投稿された記事「AI の次の重要な一歩」からの引用です。

来月には、個人の開発者、クリエイター、企業に LaMDA を活用した Generative Language API の試用を開始し、その後さまざまなモデルを提供する予定です。いずれは、AI を使ったより革新的なアプリケーションを簡単に構築できるようなツール群や API を開発する予定です。

Generative Language APIが利用できるようになれば、おそらく人間と対話するチャットボットや、テキストを与えると画像やプログラムのコードを生成する機能などを利用できるようになると思われます。

すでにマイクロソフトはMicrosoft AzureでChatGPTの基となったOpenAI社のAIモデルをAPIで提供する「Azure OpenAI Service」を1月から正式版として提供開始しています。さらに、Azure上でチャットサービス「ChatGPT」の提供もまもなく開始するとされています。

参考:マイクロソフト、GPT-3.5やDALL・E 2のAIモデルを含む「Azure OpenAI Service」正式に提供開始。まもなくAzure上で学習させたChatGPTなども実行可能に

GoogleのAPIも来月には試用可能になるとすれば、開発者にとってAIを利用するためのAPIが急速に充実することになり、AIを用いたさまざまなアプリケーションが登場することでしょう。

Googleが提供するAIサービスに関しては、今日の夜、日本時間22時30分からのオンラインイベントで詳しい発表がありそうです。

Tags: 機械学習・AI Google

このエントリーをはてなブックマークに追加
ツイート
follow us in feedly





タグクラウド

クラウド / AWS / Azure / Google Cloud
コンテナ / Docker / Kubernetes
クラウドネイティブ / サーバレス
クラウド障害 / 運用・監視

プログラミング言語 / 開発ツール
JavaScript / Java / .NET / WebAssembly
HTML/CSS / Web標準

アジャイル開発 / スクラム / DevOps / CI/CD
ソフトウェアテスト・品質
ローコード/ノーコード開発

データベース / RDB / NoSQL / 機械学習・AI
Oracle Database / MySQL / PostgreSQL
Office / 業務アプリケーション

ネットワーク / HTTP / QUIC / セキュリティ
OS / Windows / Linux / VMware
ハードウェア / サーバ / ストレージ

業界動向 / 働き方 / 給与・年収
編集後記 / 殿堂入り / おもしろ

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本