Tokusaka’s Antenna
id:tokusaka88
1/5ページ
▽セキュリティホール memo●12/20 23:32 》 Mitigating NTLM Relay Attacks by Default (Microsoft, 12/9)。DeepL 訳:注目すべき開発は、Windows Server 2025 および Windows 11 24H2 で NTLMv1 が削除され、より一般的に使用されている NTLM v2 が非推奨になったことです。さらに、管理者は NTLM をブロックするように SMB を構成するオプションを使用できるようになりました。》 ソニー、KADOKAWAの筆頭株主に 資本業務提携契約を締結 (ITmedia, 12/19)》 メロンブックス、通販でのVisa/Mastercard決済停止 店舗では引き続きOK (ITmedia, 12/19)》 「mixi2」公開の背景に“X荒れすぎ”問題 開発に2年……運営元に取材した (ITmedia, 12/20)■ いろいろ
▽Preferred Research●12/19 03:42 2024.12.17EngineeringKubernetes scheduler simulatorのリソース同期機能の開発By : Toru KomatsuResearch Blog2024.12.02EngineeringResearch事後学習でPLaMoのコンテキスト長を4倍の16kにしましたBy : Kento Nozawa
▽Bs on 射撃しつつ前転●12/17 10:21 TOKUNAGA Hiroyuki/b/Recent content in Bs on 射撃しつつ前転Hugoja〓 2024 TOKUNAGA HiroyukiMon, 16 Dec 2024 12:00:00 +0900/b/2024/12/16/critical-batch-size/Mon, 16 Dec 2024 12:00:00 +0900/b/2024/12/16/critical-batch-size/<p>DNNの大規模学習では、大規模化に伴い、必然的にbatch sizeが上がってしまう傾向にある。しかし、batch sizeがある程度以上の規模を超えると、それ以上batch sizeを大きくしても、精度向上につながらなくなる。つまり、大量に計算機資源を投入しても、得られるリターンが(ほぼ)なくなってしまう。この臨界点をcritical batch sizeという。</p><p>以下では、いくつかの論
▽Mi manca qualche giovedi`?●12/05 05:51 中谷秀洋@サイボウズ・ラボ2024-12-03埋め込みモデルの精度が上がるとどうなるか今日は小ネタ。OpenAI の text-embedding-ada-002(以下 ada-002) と text-embedding-3-small/large(以下 3-small) はテキストを埋め込みベクトルに変換するモデルの代表格で、3-small は ada-002 より精度が高いと言われますが、埋込モデルの精度が高いってどういうことだろう、という話。埋め込みベクトル同士のコサイン類似度を計算することでテキストの意味の類似度がわかる、というのが埋め込みモデルの売り文句ですが、実際には意味だけではなく表現の近さもかなり反映されます。最も顕著な例は言語でしょう。別の言語だが同じ意味のテキストより、別の意味だが同じ言語のテキストのほうが、埋め込みベクトルの類似度が大きいことも珍しくありません。こうした事情から、例え
6.次5>
0.はてなアンテナトップ
8.このページを友達に紹介
9.このページの先頭へ
□ヘルプ/お知らせ
□ログイン
□無料ユーザー登録
□はてなトップ
(c) Hatena