Tokusaka’s Antenna
id:tokusaka88
4/4ページ
▽読書猿Classic: between / beyond readers●01/17 07:10 https://readingmonkey.blog.fc2.com/ また本を書きました。『独学大全』 9/29刊行です。 ja https://readingmonkey.blog.fc2.com/blog-entry-809.html Reading MonkeyChatGPTについてブログ記事を書こうと思います。アドバイスしてください。ChatGPTChatGPTは、自然言語処理タスクのためのトランスフォーマー・ベースのモデルで、大量のテキストデータを学習しています。ブログ記事を書く際には、ChatGPTの特徴や使用方法について説明し、実際に使用した例や、改良の余地などについても触れることが有益でしょう。また、ChatGPTが扱えるタスクや利用可能な言語についても説明するこChatGPTについてブログ記事を書こうと思います。アドバイスしてください。ChatGPTChatGPT
▽mots quotidiens.●01/09 22:10 持橋大地2023年01月07日(土) [n年日記]この方法は完全に統計的に動いており, 内部的には1000次元のニューラル文書ベクトルをSVDで効率的に計算し, 基本的な線形代数を用いて最適解を返すものになっています。この方法を拡張して, Researcher2Vecにもあるように, 各研究者の「研究者ベクトル」を計算することで, キーワードから研究者を検索できる"ACL2Vec-authors"をさらに公開しました。「Score」とは, 検索キーワードから計算した仮想的な文書ベクトルと研究者ベクトルのコサイン距離のことです。(クリックで拡大)これは元々は私がTACLのEditorとして査読者を見付けるのに, 何か自動化が必要だと感じて開発したものなので, キーワードを入れるだけでなく, 論文のPDFを指定すると, 内部でそれをアップロードしてテキストに直して解析し, その統計量から最も近
▽nokunoの日記●09/18 15:42 nokunoはてなブログ アカデミー
法人プラン
▽DO++●03/20 23:03 岡野原 大輔tag:app.cocolog-nifty.com,2003:weblog-2388 2013-01-01T07:01:22+09:00 tag:app.cocolog-nifty.com,2003:post-75160108 2013-01-01T07:01:22+09:00 2013-01-01T07:20:16+09:00 2012年の個人的な総括を以下にまとめます。子供が生まれました無事子供が... hillbig
2012年の個人的な総括を以下にまとめます。
子供が生まれました
無事子供が7月に生まれました。毎日子育てに翻弄していますが想像していたよりも大変で楽しい時間を過ごしています。
また、妻が実家に里帰り出産したため夏の間は、毎週末妻の実家に帰り車を運転して病院・お店に行くという、まるで妻の実家で生活して月〜金は東京で働いているような感覚で過ごしていました。
高速文字列本を
4.<前5
0.はてなアンテナトップ
8.このページを友達に紹介
9.このページの先頭へ
□ヘルプ/お知らせ
□ログイン
□無料ユーザー登録
□はてなトップ
(c) Hatena