infinity_th4のアンテナ
id:infinity_th4
1/3ページ
▽丸井綜研●12/26 19:37 2024-12-25平均とってから相関係数を見てはダメなのでは研究 Rとある案件で、2つの変数の相関係数を計算しているのを見たのですが、片方の変数のほうがデータ数が多いためか、平均値をとってから相関を計算していました。もともと「それやっちゃマズい」と思っていたのですが、実際にどのくらいのマズさになるのか実験してみました。例題として、ある食品のリニューアルに向けて、使用する塩分量を現在のものからマイナス5グラムからプラス5グラムまで変化させ、それに対して20人の実験参加者に「しょっぱさ」の評価をしてもらうということを考えます。現在のものより塩味がとても薄くなっていたらマイナス20点、とても濃くなっていたらプラス20点、変化がないと感じたらゼロ点とします。そのような仮想データを作ってプロットすると以下のようになります。X軸が塩分量、Y軸がしょっぱさ評価で、X軸の各値に対して20人分の
▽檜山正幸のキマイラ飼育記●12/14 14:54 2024-12-13連立方程式系と余連立余方程式系雑記/備忘「圏論のエンドとコエンドは双対なんだよ」で述べたように、エンドとコエンドは完全に双対なのですが、この双対性、なかなかに分かりにくいようです。エンドの作り方は「連立方程式系の解空間を求める」行為になっています。コエンドを作ることはその行為の…連立方程式系と余連立余方程式系
▽Mi manca qualche giovedi`?●12/05 05:51 2024-12-03埋め込みモデルの精度が上がるとどうなるか今日は小ネタ。OpenAI の text-embedding-ada-002(以下 ada-002) と text-embedding-3-small/large(以下 3-small) はテキストを埋め込みベクトルに変換するモデルの代表格で、3-small は ada-002 より精度が高いと言われますが、埋込モデルの精度が高いってどういうことだろう、という話。埋め込みベクトル同士のコサイン類似度を計算することでテキストの意味の類似度がわかる、というのが埋め込みモデルの売り文句ですが、実際には意味だけではなく表現の近さもかなり反映されます。最も顕著な例は言語でしょう。別の言語だが同じ意味のテキストより、別の意味だが同じ言語のテキストのほうが、埋め込みベクトルの類似度が大きいことも珍しくありません。こうした事情から、例え
▽ほくそ笑む●11/09 21:24 n <- 1300 p <- 300 # データの生成 set.seed(314) x <- rnorm(n * p, mean = 0, sd = sqrt(1/n)) X <- matrix(x, nrow = n, ncol = p) beta <- matrix(rep(c(10, -10, 0), each = p/3)) prob <- plogis(X %*% beta) y <- rbinom(n, 1, prob) # ロジスティック回帰モデルの適用 fit <- glm(y ~ X, family = binomial, control = list(maxit = 50))
6.次5>
0.はてなアンテナトップ
8.このページを友達に紹介
9.このページの先頭へ
□ヘルプ/お知らせ
□ログイン
□無料ユーザー登録
□はてなトップ
(c) Hatena