ただいま、システムメンテナンスに伴い「フリータンク」「チップ」などのeoID連携を使った機能がご利用いただけません。
"当サイトはChatGPTを利用しております。ChatGPTの回答は必ずしも正しいとは限りません…"
(検索 - 画像)
"当サイトはChatGPTを利用しております。ChatGPTの回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください。掲載された内容によって生じた損害等の責任は一切負いかねます。"
「特に、主要キャリアであるドコモ、au、ソフトバンクは2025年までに4Gサービスを終了する予定です。」
気が早い(生成AIだ)な〜
LTEとは?意味や定義、Wi-Fi®や4G、5Gとの違いも解説
https://network.mobile.rakuten.co.jp/sumakatsu/contents/articles/2024/00179/#link6
「2024年4月時点では、LTEがサービス終了になる予定はありません。楽天モバイル、NTTドコモ、KDDI、ソフトバンクの携帯電話会社4社では、今後もLTEのサービスが継続される予定です。」
ハルシネーション (人工知能)
(緩和策 参照)
https://ja.wikipedia.org/wiki/ハルシネーション_(人工知能)
「幻覚(ハルシネーション)現象はまだ完全には解明されていない。研究者らは、幻覚(ハルシネーション)は避けられないものであり、大規模言語モデルの本質的な限界であるとも提唱している。そのため、その発生を軽減するための研究が現在も行われている。特に、言語モデルは幻覚を引き起こすだけでなく、この問題を軽減するように設計されたものであっても、かえって幻覚を増幅させることが示された。」
9 件のコメント
コメントするには、ログインまたはメンバー登録(無料)が必要です。





「何か 人工無脳」アハハ、懐かし〜 ♪( ´▽`)
Win98の頃、よく遊んだもんだわ。
(↑ さぶれさんの作品)
そうですと答えてたよ
大規模化して統計的な処理から答えを導くが、基本的には同じ物だと。
つまりあれは人工無脳の巨大版なのです。自らも認める事実です。
彼らに責任ある判断は出来ませんよ。
わたしたちの後継となるようなものでもない。
まだまだ心配するようなものではない。
ただ悪用しようとする人がAIに本来任せるべでない判断をさせて世論を誘導するようになるかもと考えるとSFっぽくて怖いですね。
💩 ワ ロ タ
Emmy
https://ja.wikipedia.org/wiki/Emmy
「1984年に工画堂スタジオが開発し、アスキーから発売されたコンピュータゲーム。工画堂スタジオが初めて市販ゲームソフトに関わった作品とされる。」
Racter
https://en.wikipedia.org/wiki/Racter
工画堂スタジオ
https://ja.wikipedia.org/wiki/工画堂スタジオ
>> _カブ さん
(画像)1960年代のチャットボット「ELIZA」がチューリングテストでOpenAIの「GPT-3.5」を破る(2023年)
https://gigazine.net/news/20231207-gpt-eliza-turing-test/
『ELIZAが意外にもGPT-3.5を上回ったという結果については、ELIZAは「保守的」な回答をする傾向があり、誤った情報や不明瞭な知識を提供しないことが多いという点、GPTに見られるようなわざとらしい親切心や友好的な態度も示さないという点などから、人間の目に「非協力的な人間」のように映った可能性があると考察されています。』
チューリング・テスト
https://ja.wikipedia.org/wiki/チューリング・テスト
アラン・チューリング
https://ja.wikipedia.org/wiki/アラン・チューリング
>> _カブ さん
(画像)最初期のチャットボット「ELIZA」の開発に謎の女性秘書が貢献していた
https://gigazine.net/news/20241013-chatbot-eliza-secretary/
ELIZA
https://ja.wikipedia.org/wiki/ELIZA
ELIZA効果
https://ja.wikipedia.org/wiki/ELIZA効果
>> crypter さん
そもそも Microsoftで研究していた「Tay」が当初はかなりアレな答えを連発して、AI関連開発が頓挫しかけたお話が有ったと記憶してます。
・Microsoftの人工知能Tay、悪い言葉を覚えて休眠中
https://www.itmedia.co.jp/news/articles/1603/25/news069.html
※前にこの手の話を書いたとき、「Xiaoice」と書いて
いたかもしれませんが、そこは記憶違いでした。
訂正いたします>all。
他にも「人類を滅亡させる」と答えたものもありましたね。
・「人類を滅亡させるわ」 人工知能ロボットがインタビューで宣言
https://www.itmedia.co.jp/news/articles/1603/30/news109.html
さらには、Microsoftの Satya Nadella CEO曰く『AIと人知は別物、人のように扱うべきでない』
とも発言したインタービューもあります。
https://www.bloomberg.co.jp/news/articles/2024-05-22/SDUWHNT1UM0W00
※上記、リンク場なりになってしまい申し訳ありません。
結局のところ、言語モデルとして「どこからどういう情報を与えるか?」で思想を引っ張られる
ような「恣意的運用も可能」と考えると、逆に「素直に人間と対立するのが当たり前」と考えたり、
逆に「人に仇なすことすら厭わない」んでしょうね。色々考えものです。