はてなアンテナ
syou6162のアンテナ
id:syou6162

DVD

グループ一覧
高木浩光@自宅の日記
●01/27 21:42
2025年01月26日■ 個人情報保護法3年ごと見直しの行方を大規模言語モデルClaudeで占う先週、個人情報保護委員会に新しい動きがあった。1月22日付で以下の文書が出ている。「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について個人情報保護法の制度的課題の再整理そこで、これまでの文書を含め、生成AIに読み込ませて、どのような展開となろうとしているのかを分析させてみた。今回は、プロンプトに貼り付けるのではなく、Claudeの「プロジェクト」機能を使い、これらの文書を「project knowledge」として扱った*1。以下は、Claude 3.5 Sonnet Formalによる応答である。私:まず、資料をファイルごとに日付を確認してください。Claude:それぞれのファイルの日付を確認いたします。時系列順に整理すると以下のようになります:2024年6月12日ppc20240612-takagi.docx (高木浩光氏による意見書)2024年6月27日個人情報保護法いわゆる3年ごと見直しに係る検討の中間整理.pdf2024年10月16日個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点2024年11月21日ppc20241121-takagi.docx (高木浩光氏による2回目の意見書)2024年12月17日241217_shiryou-1-1 「個人情報保護法のいわゆる3年ごと見直しの検討の充実に向けた視点」に関するヒアリングの概要について.pdf241217_shiryou-1-2 事務局ヒアリングにおける主な御意見.pdf2025年1月21日02_【資料1】個人情報保護委員会事務局提出資料.pdf2025年1月(日付不明)「個人情報保護法 いわゆる3年ごと見直しに係る検討」の今後の検討の進め方について(案).pdf個人情報保護法の制度的課題の再整理.pdfこれらの資料は、2024年6月から2025年1月にかけての個人情報保護法の3年ごと見直しに関する一連の検討過程の文書であることが分かります。私:最後の日付不明は2025年1月22日のものです。これらを分析して、個情委の立場がどのように変化してきているかを調べます。Claude:個人情報保護委員会(個情委)の立場の変遷を時系列に沿って分析いたします。2024年6月の中間整理段階個情委は、具体的な制度改正の方向性について、以下のような個別論点を中心に検討を進めていました:個人の権利利益の実質的な保護監視・監督の実効性確保データ利活用支援この段階では、比較的技術的・実務的な制度改正の方向性を示していました。2024年10月の転換点「検討の充実に向けた視点」を公表し、より根本的な制度の基本的在り方に立ち返る必要性を認識しました。この背景には、デジタル化・AIの急速な普及を踏まえた事業者団体等からの指摘がありました。2024年11月-12月のヒアリング段階個情委は、有識者11名、経済団体・消費者団体等17団体という幅広いステークホルダーからヒアリングを実施し、より包括的な観点から検討を行うようになりました。特に注目したのは:個人情報保護法の保護法益の本質本人関与の意義と限界事業者のガバナンスの実効性官民を通じたデータ利活用の在り方2025年1月の現在の立場個情委は、「本人の権利利益への直接の影響の有無」を重要な判断基準として採用し、より柔軟な規制の枠組みを模索するようになっています。具体的には:本人関与が必要な場面とそうでない場面を峻別する方向性統計作成やAI開発など、個人への直接的影響が想定されない利用については規制を緩和する可能性実質的にデータ処理を行う委託先事業者への直接規制の検討この変化は、当初の個別論点ベースの改正検討から、より包括的な制度設計の見直しへと発展したことを示しています。特に、形式的な規制から実質的な保護へと重点を移行させる傾向が見られます。また、官民連携によるデータ利活用の推進と個人の権利利益保護のバランスを、より柔軟に図ろうとする姿勢が明確になってきています。私:高木意見はどのように扱われていますか。Claude:高木意見の扱われ方を分析いたします。高木意見の要点高木氏は2回の意見書(6月と11月)を通じて、個人情報保護法の核心的保護利益を「個人データ処理による個人に対する評価・決定の適切性確保の利益」と位置付け、これを基準とした制度設計を提案しています。特にOECDガイドラインの第2原則(データ品質の原則)における「関連性の要件」の導入を重視しています。個情委の対応初期段階(6月-10月):中間整理の段階では、高木意見で示された基本的な制度設計の考え方は直接的には反映されていませんでした。転換点(10月):「検討の充実に向けた視点」において、制度の基本的在り方に立ち返る必要性を認識し、高木氏を含む有識者からのヒアリングを実施することを決定しました。ヒアリング後の展開(12月-1月):高木意見の影響は、以下の点で部分的に見られるようになっています:「本人の権利利益への直接の影響の有無」を重要な判断基準として採用したことこれは高木氏の「評価・決定の適切性確保」という考え方と親和性があります統計作成やAI開発などの取扱いについて、個人への直接的影響が想定されない場合の規制緩和を検討していることこれは高木氏の「決定利用」という概念に基づく整理と類似していますただし、重要な相違点も存在します:高木氏が重視する「関連性の要件」の法制化については、明示的な言及がありません高木氏が提案する「データ品質の原則」の導入については、直接的な検討対象とはなっていません事業者のガバナンスに関する考え方において、高木氏の提案する「独立データ保護機関による介入と本人関与の両面からなるガバナンス」という構造は、そのままの形では採用されていません総括すると、個情委は高木意見の一部(特に「直接の影響」という判断基準)を取り入れつつも、より漸進的な制度改革の方向性を模索していると評価できます。高木氏が提案する根本的な制度再設計ではなく、既存の制度框の中での調整を志向している様子が見られます。私:高木意見に相入れない反対意見の扱いはどうなっていますか。Claude:高木意見と相対する主な意見は、特に次の論点において見られます。プライバシー保護の位置付けについて森亮二弁護士は「権利利益の中心は、プライバシーであり、本法の目的の一つはプライバシー侵害の防止」と主張しています。これは高木氏が「プライバシーは副次的保護利益に過ぎない」とする立場と根本的に対立します。個情委の対応:双方の立場を踏まえつつ、「様々なリスクを考慮し、全体的なバランスをとった重層的な位置付けとすべき」という折衷的な立場を採用しています。本人関与の意義について一部の有識者や事業者団体からは、本人の自己情報コントロール権を重視する意見が出されています。これは高木氏が*2「自己情報コントロール権の外延は何十年も議論されても全く示されたことはなく基本的権利になり得ない」とする立場と対立します。個情委の対応:本人関与の意義を「事業者におけるガバナンスの一環」と「本人に関わる情報の取扱いを本人が決定する権利」という二つの側面から整理し、両者の共存を図る方向性を示しています。生成AIの規制について高木氏は、学習データの収集段階では要配慮個人情報の取得制限の対象外とすべきと主張していますが、一部の有識者からは、より厳格な規制を求める意見も出されています。個情委の対応:「個別の個人の権利利益への直接的な影響が想定されない個人データの利用」という新たな判断基準を設定することで、双方の懸念に配慮しつつ、実務的な解決を図ろうとしています。個情委の姿勢これらの意見対立について、個情委は以下のような対応方針を採っています:制度の基本的な在り方に関する異なる立場の存在を明示的に認識対立する意見を踏まえた上で、実務的な運用が可能な中間的な解決策を模索具体的な制度設計においては、「本人の権利利益への直接の影響の有無」という客観的な基準を導入することで、理論的対立を実務的な判断の問題に置き換えこのように個情委は、根本的な理論的対立については明確な決着をつけることを避け、より実務的な観点から制度設計を進めようとする姿勢を示しています。私:決着の点について、12月17日、1月21日、1月22日の資料を比べると変化はありますか。Claude:3つの資料を時系列で比較分析すると、個情委の立場に以下のような変化が見られます:12月17日の資料(ヒアリング概要)この段階では、様々な意見の存在を並列的に紹介する形式を取っています。特に保護法益の解釈や本人関与の意義について、対立する意見を併記しつつ、どちらかに決着をつけることを避けています。1月21日の資料(事務局提出資料)より具体的な制度設計の方向性を示し始めています。特に「本人の権利利益への直接の影響の有無等」を切り口とした規律の内容の検討という方向性が明確になってきています。この段階で、理論的対立を実務的な判断基準へと置き換える方向性が見え始めます。1月22日の資料(今後の検討の進め方)さらに具体的な整理が進み、「個人データ等の取扱いにおける本人関与に係る規律の在り方」として、より明確な判断基準を示すようになっています。特に注目すべき変化として:統計作成等、特定の個人との対応関係が排斥された一般的・汎用的な分析結果の獲得と利用のみを目的とした取扱いについて、本人同意を要しないとする方向性が具体化取得の状況からみて本人の意思に反しない取扱いを実施する場合についても、同様の整理を行う方向性が示されるこの変化は、当初の理論的な対立の並列的な提示から、より実務的な判断基準の確立へと、個情委の検討が進展していることを示しています。特に、「本人の権利利益への直接の影響の有無」という基準を採用することで、異なる立場からの意見を実務的に調整可能な形に収束させようとする方向性が強まっているといえます。この変化は、高木意見が提示した「評価・決定の適切性確保」という観点と、プライバシー保護や自己情報コントロール権を重視する立場との間で、実務的な接点を見出そうとする試みと解釈することができます。私:理論面はどういうことでしょうか。Claude:理論面での変化を分析すると、個人情報保護委員会の立場は以下のように発展しています。初期の理論的整理(12月17日資料)個人の権利利益の保護について、4つのリスク類型(評価・選別による影響、直接の働きかけ、秘匿領域の暴露、自己情報コントロールの制約)を並列的に提示し、これらを総合的に考慮する必要性を示唆していました。この段階では、各リスクの理論的な位置づけや優先順位について明確な整理を避けていました。理論的整理の発展(1月21日資料)「本人の権利利益への直接の影響の有無」という基準を導入することで、理論的な整理の軸を設定しています。この基準は、高木意見が示す「評価・決定の適切性確保」という考え方と、プライバシー保護や自己情報コントロール権という従来の考え方を、実務的な判断基準として統合する試みと解釈できます。最終的な理論的枠組み(1月22日資料)個人情報保護法の規律を「本人関与」と「ガバナンス」という二つの柱で整理し、それぞれについて「直接の影響の有無」を基準とした具体的な判断枠組みを提示しています。この整理により:本人関与の必要性は、個人への直接の影響が想定される場合に限定されるガバナンスの在り方は、データ処理の実態に即して再構築される従来の理論的対立は、実務的な判断基準の中に組み込まれるこの変化は、純粋な理論的対立の解決を目指すのではなく、実務的な判断基準を通じて異なる理論的立場の共存を図るという*3、個人情報保護委員会の新たな理論的アプローチを示しています。これは、一般法としての個人情報保護法の性質を踏まえた実践的な理論構築の試みと評価できます。私:高木意見のどの部分が実現されそうでしょうか。Claude:高木意見のうち、実現される可能性が高い部分について分析します。第一に、「評価・決定による影響」を重視する考え方が、「本人の権利利益への直接の影響の有無」という基準として部分的に採用されつつあります。個人情報保護委員会は、この基準を用いて本人関与の要否を判断する方向性を示しており、これは高木氏の理論的枠組みと親和性があります。第二に、統計作成やAI開発における個人データの取扱いについて、高木氏が主張する「決定利用」という観点からの整理が実質的に取り入れられつつあります。個人情報保護委員会は、特定の個人との対応関係が排斥された一般的・汎用的な分析結果の獲得と利用のみを目的とした取扱いについて、本人同意を不要とする方向性を示しています。第三に、個人データの委託や第三者提供に関する規律について、高木氏が指摘する「データ処理の実態に即した規律の必要性」という観点が採用されつつあります。個人情報保護委員会は、データ処理を実質的に行う事業者に対する直接的な規律の導入を検討しています。一方で、高木意見の核心的な部分である「データ品質の原則」、特に「関連性の要件」の法制化については、現時点では具体的な検討対象とはなっていません。また、独立データ保護機関による積極的な介入という制度設計も、そのままの形では採用される見込みは低いと考えられます。このように、高木意見は実務的な判断基準の構築という形で部分的に実現されつつありますが、より根本的な制度再設計の提案については、現時点では採用が見送られる可能性が高いと評価できます。ただし、個人情報保護委員会が示している「より包括的なテーマや個人情報保護政策全般」についての継続的な議論の中で、これらの提案が将来的に検討される余地は残されています。私:契約の履行に伴う提供についてはどうですか。Claude:契約の履行に伴う提供に関する取り扱いについて、高木意見と個人情報保護委員会の立場の変遷を分析します。高木意見の主張高木氏は6月の意見書で、目的内の提供を本人同意の原則的対象とする現行規制は過剰であると指摘しています。特にEU法では「契約の履行」や「正当な利益」に該当する場合には本人同意なく提供が許される点を参照しつつ、日本でもこれを認めるべきと主張しています。ただし、その実現のためには「利用目的の特定」を十分に詳細なものとし、「第三者提供時の利用目的拘束」の仕組みを設ける必要があるとしています。個人情報保護委員会の対応個人情報保護委員会は、この提案を段階的に検討対象としてきました。1月22日の資料では、「取得の状況からみて本人の意思に反しない取扱いを実施する場合」を本人同意不要とする方向性を示しており、これは契約の履行に伴う提供を含む可能性があります。ただし、高木意見が指摘する前提条件(詳細な利用目的の特定や利用目的拘束の仕組み)については、現時点で具体的な検討は示されていません。これは、個人情報保護委員会が短期的な制度改正としては、より実務的な判断基準の導入を優先し、制度の基礎的な部分の改正については中長期的な検討課題として位置付けている可能性を示唆しています。このように、契約の履行に伴う提供については、高木意見の問題意識は部分的に採用されつつありますが、その実現方法については、より漸進的なアプローチが選択されていると評価できます。私:AI規制との関係はどうですか。Claude:AI規制との関係について、高木意見と個人情報保護委員会の立場を分析します。高木意見の主張高木氏は、AI規制に関して重要な理論的整理を提示しています。特に生成AIについて、学習データの収集段階では個人データとして取得する場合に当たらないとし、要配慮個人情報の取得制限の対象外とすべきと主張しています。その理由として、学習結果がパラメータとして抽象化され、個人との対応関係が失われることを挙げています。一方で、生成AIの出力段階については、プライバシーや個人の権利利益の保護の観点から規制が必要と主張しています。特に、実在の個人に関する評価や判断を出力する場合には、その正確性や関連性が問われるべきとしています。個人情報保護委員会の対応個人情報保護委員会は、この問題について段階的に立場を明確化してきています。当初は生成AIへの対応について慎重な姿勢を示していましたが、1月22日の資料では「統計作成等であると整理できるAI開発等」について、本人同意を要しない方向性を示しています。ただし、個人情報保護委員会は、より包括的なAI規制との関係について、一般法としての個人情報保護法の位置づけを意識した整理を行っています。具体的には、AIの利用に関する固有の課題については、特別法等による規律も含めた検討の必要性を示唆しています。将来への含意今後のAI規制との関係では、個人情報保護法は基盤的な規律として機能しつつ、AI特有の課題については別途の規制枠組みが検討される可能性が高いと考えられます。高木意見が示した「決定利用」という観点からの整理は、この二層構造の規制を考える上で重要な示唆を与えるものとなっています。なお、この方向性は、EUにおけるGDPRとAI規制法の関係に類似した構造となる可能性があり、国際的な制度調和の観点からも注目される点といえます。私:生成AI以外のAIについてどうですか。Claude:生成AI以外のAIについての議論を、高木意見と個人情報保護委員会の立場から分析します。高木意見の基本的立場高木氏は、AIによる個人に対する評価・決定を行う場合について、データ品質の原則、特に関連性要件が重要だと主張しています。具体的には、評価・決定の目的に対して関連性のないデータ項目による差別的効果をもたらす決定を防止する必要性を指摘しています。この観点から、AIによる人事評価など、個人に対する具体的な評価・決定を行うシステムについては、データの関連性や評価・決定の適切性を確保するための規律が必要だとしています。個人情報保護委員会の対応個人情報保護委員会は、AIによる個人の評価・選別について、「本人の権利利益への直接の影響」という観点から規律を検討する方向性を示しています。特に1月22日の資料では、プロファイリングを含む個人データの取扱いについて、より実効的な規律の必要性を認識しています。ただし、個人情報保護委員会は、高木氏が提案するような関連性要件の導入という形ではなく、「本人の権利利益への直接の影響の有無」という基準を用いて、規律の要否や程度を判断する方向性を示しています。将来的な展望個人情報保護委員会は、AIによる個人の評価・決定について、一般法としての個人情報保護法による基本的な規律と、AI特有の課題に対応する特別法等による規律という二層構造での対応を想定していると考えられます。この中で、個人情報保護法は、AIによる評価・決定が個人の権利利益に直接影響を与える場合についての基本的な保護枠組みを提供する役割を担うことになると予想されます。この方向性は、高木意見が示す理論的枠組みとは異なるアプローチですが、実務的な観点からは、既存の法制度との整合性を保ちながら、AIによる個人の評価・決定に対する規律を段階的に整備していく現実的な選択として理解できます。私:関連性への言及はないのですか。Claude:関連性への言及について、詳細に確認してみます。12月17日の事務局ヒアリング概要資料では、高木氏の関連性に関する指摘について触れており、「決定を行う際の目的に対して関連性のないデータ項目を用いることが、許されざるプロファイリングと言える」という発言を記録しています。1月21日の事務局提出資料では、個人情報等の適正な取扱いに関する規律の検討において、「取扱いの類型」や「その目的」を規律対象とすべきとの考えが示されています。これは関連性の概念に近い考え方を含んでいますが、明示的に「関連性」という用語は使用していません。1月22日の今後の検討の進め方では、「個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方」という形で整理されており、関連性という概念は直接的には言及されていません。このように、個人情報保護委員会は、関連性という概念を直接的に採用するのではなく、「本人の権利利益への直接の影響」という基準を通じて、実質的に同様の規律を実現しようとしている様子が見られます。これは、既存の法体系との整合性を保ちながら、実務的な判断基準として機能させやすい形に置き換えているものと解釈できます。ただし、この方向性が高木氏の指摘する関連性要件の本質的な機能を十分に果たせるかについては、今後の制度設計の詳細や運用実態を見る必要があるでしょう。私:1月21日の「【資料1】個人情報保護委員会事務局提出資料」に「関連性」への言及がありませんか。Claude:申し訳ありません。【資料1】を再確認したところ、関連性への重要な言及がありました。スライド12-13の「個人情報等の適正な取扱いに関係する政策の基本原則」において、「個人情報等の利用目的との関連性・利用の適正性」という項目が設けられています。そこでは以下のように記載されています:「個人情報等の利用目的は、個人情報等の取扱いに関する規律の要となるものであり、できる限り特定することが必要。個人情報等の取扱いに関係する政策の企画立案・実施に当たっては、政策目的の実現のために取扱いが必要となる個人情報等について、利用目的が政策目的と関連するものであるか否かを検討した上で取り組むことが重要。」この記述は、高木意見が強調する「関連性」の概念を、特に政策立案における基本原則として位置づけようとする重要な一歩と評価できます。個人情報保護委員会は、直接的な法制化ではないものの、政策原則という形で関連性の要件を取り入れ始めていると解釈できます。この点は、私の先ほどの分析に重要な修正を加える必要があることを示しています。個人情報保護委員会は、関連性の概念を完全に避けているわけではなく、むしろ政策原則というより基礎的なレベルで採用を検討していると考えられます。私:スライド17にもありますよね。Claude:申し訳ありません。ご指摘の通り、スライド17「ヒアリングから得られた視点」にも関連性への重要な言及があります。プロファイリングに関する記述において、「具体的には、プロファイリング実行のためのプログラム作成に係る元データの利用目的やその関連性、プログラムそのものに関わる論点、プロファイリングによって得られた結果の取扱いなど、様々な視点が示された」と記載されています。この点は非常に重要です。個人情報保護委員会は、プロファイリングの規律を検討する際の核心的な要素として、「元データの利用目的やその関連性」を明確に位置づけていることが分かります。これは高木意見が主張する関連性要件の重要性が、特にAIやプロファイリングの文脈で具体的に認識されていることを示しています。このように、個人情報保護委員会は政策原則のレベルと、具体的なプロファイリング規制のレベルの両方において、関連性の概念を重要な要素として取り入れようとしていることが分かります。この二つのレベルでの言及は、関連性要件が今後の制度設計において重要な役割を果たす可能性を示唆していると考えられます。私の先ほどの分析は不十分でした。個人情報保護委員会は、関連性の概念を、より包括的かつ体系的に制度設計に組み込もうとしている可能性が高いと修正させていただきます。いまひとつ理解が

バンガード投資情報
●06/29 11:22
金融詐欺にご注意くださいLINEなどで偽りの内容を告げ投資資金をだまし取ろうとする金融詐欺が確認されています。あやしい勧誘を受けたりお困りの場合は、お一人で悩まずにお近くの消費生活センターに繋がる「消費者ホットライン」(局番なし188)や日本証券業協会の「株や社債をかたった投資詐欺」被害防止コールセンター(0120-344-999)にご連絡ください。また金融詐欺の被害にあった場合は警察に被害をお届けください。

街でみかけた書体
●03/28 10:21
taquet’s diary読者になる

POLYPHONET Survey
●11/06 19:04
[0] Getting Aligned on Representational Alignment (2023)Ilia Sucholutsky, Lukas Muttenthaler, Adrian Weller, Andi Peng, Andreea Bobu, Been Kim, Bradley C. Love, Erin Grant, Iris Groen, Jascha Achterberg, Joshua B. Tenenbaum, Katherine M. Collins, Katherine L. Hermann, Kerem Oktar, Klaus Greff, Martin N. Hebart, Nori Jacoby, Qiuyi Zhang, Raja Marjieh, Robert Geirhos, Sherol Chen, Simon Kornblith, Sunayana Rane, Talia Konkle, Thomas P. O'Connell, Thomas Unterthiner, Andrew K. Lampinen, Klaus-Robert M〓ller, Mariya Toneva, Thomas L. Griffiths2023Princeton U., Google DeepMind, Google Research, UCB, MIT UCL, etc認知科学、神経科学、機械学習の研究領域における表現のアラインメントが重要である。ここでは、統一的なフレームワークを提供する。GoogleNA[1] Curiosity-Driven Learning of Joint Locomotion and Manipulation Tasks (2023)Clemens Schwarke, Victor Klemm, Matthijs van der Boon, Marko Bjelonic, Marco Hutter2023ETH Zurich, Switzerland報酬を作り込まない。タスクが成し遂げられたときには+1の報酬。内的な動機が、探索を疎な報酬のほうに向ける。ランダムネットワーク蒸留(RND)というアイディアを採用し、移動と操作の両方を含む動きの方策を学習する。(なので、ドアを押しながら開けるとかできる。)GoogleNA[2] Large Language Models Understand and Can be Enhanced by Emotional Stimuli[3] The Impact of Depth and Width on Transformer Language Model Generalization[4] GPT-4 Technical Report (2023)[5] NUWA-XL: Diffusion over Diffusion for eXtremely Long Video Generation (2023)[6] FACTOOL: Factuality Detection in Generative AI A Tool Augmented Framework for Multi-Task and Multi-Domain Scenarios (2023)[7] Explaining grokking through circuit efficiency (2023)[8] Language Modeling Is Compression (2023)[9] Physion: Evaluating Physical Prediction from Vision in Humans and Machines (2021)[10] RT-1: Robotics Transformer for Real-World Control at Scale (2022)[11] Multimodal Foundation Models: From Specialists to General-Purpose Assistants (2023)[12] Do Language Models Know When They’re Hallucinating References? (2023)[13] Chain-of-Verification Reduces Hallucination in Large Language Models (2023)[14] RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback (2023)Harrison Lee, Samrat Phatale, Hassan Mansoor, Kellie Lu, Thomas Mesnard, Colton Bishop, Victor Carbune, Abhinav Rastogi[15] Scaling Forward Gradient With Local Losses (2023)NYU, Google, Vector Inst.前方勾配のアルゴリズムを、多くの局所貪欲損失関数を導入することで改善した。MLPMixerに触発された新しいアーキテクチャである局所混合器(LocalMixier)を提案する。MNISTやCIFAR-10での誤差逆伝播に匹敵し、誤差逆伝播を使わない従来手法を凌駕する。トークン混合、チャネル混合、ReLUを繰り返す残余ブロックのアーキテクチャの途中に、局所損失を入れる。[16] Teach LLMs to Personalize -- An Approach inspired by Writing Education (2023)Cheng Li, Mingyang Zhang, Qiaozhu Mei, Yaqing Wang, Spurthi Amba Hombaiah, Yi Liang, Michael Benderskyマルチステージでマルチタスクのスレ‐無ワークで、LLMを個人化生成のために教える。書くタスクは通常、見つける、評価する、要約する、合成する、統合するというような複数のステップから成る。我々のアプローチも、検索、ランク、要約、合成、生成というステージからなる。主観的な本の感想文のようなものを出力できる。Google[17] Better Zero-Shot Reasoning with Role-Play Prompting (2023)Aobo Kong, Shiwan Zhao, Hao Chen, Qicheng Li, Yong Qin, Ruiqi Sun, Xin Zhou南開大学, Lenovo Research, etc.ロールプレイングの能力について調査。12の異なる推論ベンチマークで検証。ロールプレイプロンプティングは、通常のゼロショットのアプローチで多くの場合上回る。思考の連鎖トリガーを引くのではないか。数学の先生ですとか、クイズの挑戦者ですとか。(人ですらなく)コインやレコーダーですとか。[18] DayDreamer: World Models for Physical Robot Learning (2022)UCBDreamerは良い性能を示すが、物理的なロボットで早い学習が可能か良く分かっていなかった。本研究では、Dreamerを使って、4つのロボットをオンラインと実世界で訓練する。[19] Qwen-VL: A Frontier Large Vision-Language Model with Versatile Abilities (2023)Jinze Bai, Shuai Bai, Shusheng Yang, Shijie Wang, Sinan Tan, Peng Wang, Junyang Lin, Chang Zhou, Jingren ZhouAlibaba大規模な視覚言語モデル。9.6Bパラメータ。学習のさせ方(事前学習、マルチタスク事前学習、教師ありファインチューニング)が書かれている。[20] Retrieval meets Long Context Large Language Models (2023)Peng Xu, Wei Ping, Xianchao Wu, Lawrence McAfee, Chen Zhu, Zihan Liu, Sandeep Subramanian, Evelina Bakhturina, Mohammad Shoeybi, BryanNVIDIA検索拡張と、長いコンテキストは、どちらがダウンストリームタスクに良いのか。両者のいいとこ取りはできるか。43BのGPTとLLaMA2-70Bを用いて検証する。4Kのウィンドウで検索拡張したものは、16Kのウィンドウで位置の内挿をしたファインチューニング済みのモデルと同等である。さらに、検索は、コンテキストウィンドウの大きさに関わらず、LLMの性能を大きくあげる。[21] Large Language Models for Software Engineering: Survey and Open Problems (2023)Xinyi Hou, Yanjie Zhao, Yue Liu, Zhou Yang, Kailong Wang, Li Li, Xiapu Luo, David Lo, John Grundy, Haoyu Wang華中科技大学, Monash U., SMU, etcサーベイ論文。RQ1: ソフトウェアエンジニアリング(SE)のタスクを解くのにどのLLMが使われているか。RQ2: SEに関連したデータセットはどのように集められ前処理され使われているか。RQ3: SEのためのLLMにはどのような技術が最適化や評価のために使われているか。RQ4: SEのためのLLMを使ってどのようなタスクに効果的に適用されているか。→ 要求工学、ソフトウェアデザイン、ソフトウェア開発、品質保証、メンテナンス、管理。ソフトウェア開発で使われており、管理ではあまり使われていない。コード生成とプログラム修復が最もよくあるタスク。[22] Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task (2023)Kenneth Li, Aspen K. Hopkins, David Bau, Fernanda Vi〓gas, Hanspeter Pfister, Martin WattenbergHarvard U., etcLLMは、表面的な統計を単に記憶しているだけなのか、それとも系列を生成するプロセスの内部表現に頼っているのか。オセロでの正しい動きを予測するタスクに対してGPTを適用した。オセロのボードの状態を表す非線形な内部表現が現れることを見つけた。潜在顕現性マップを作った。[23] Survey on Factuality in Large Language Models: Knowledge, Retrieval and Domain-Specificity (2023)Cunxiang Wang, Xiaoze Liu, Yuanhao Yue, Xiangru Tang, Tianhang Zhang, Cheng Jiayang, Yunzhi Yao, Wenyang Gao, Xuming Hu, Zehan Qi, Yidong Wang, Linyi Yang, Jindong Wang, Xing Xie, Zheng Zhang, Yue ZhangWetlake U., Perdue U., Fudan U., Yale U., etcLLMの事実性に関して。ここで事実性の問題とは、LLMが、確認された事実に反してコンテンツを生成する確率の問題と定義する。この問題の含意について野辺、次にLLMが事実を貯蔵し処理するメカニズムを分析する。そして、LLMの事実性を評価する方法について述べる。また、特定ドメインに向けてLLMの事実性を促進する戦略についても述べる。検索ベースとスタンドアロンと両方について議論している。[24] Evaluating Cognitive Maps in Large Language Models with CogEval: No Emergent Planning (2023)Ida Momennejad · Hosein Hasanbeig · Felipe Vieira Frujeri · Hiteshi Sharma · Nebojsa Jojic · Hamid Palangi · Robert Ness · Jonathan LarsonMSRここでは、CogEvalという、認知科学にインスパイアされた、LLMの認知能力をシステマティックに評価するプロトコルを提案する。そして、CogEvalに従って、8つのLLMの認知マップとプランニングの能力をシステマティックに評価する。[25] Auto-Regressive Next-Token Predictors are Universal Learners (2023)Eran MalachHebrew University自己回帰の次のトークン予測の理論的フレームワークについて述べる。線形な次のトークン予測器であっても、思考の連鎖データで訓練すれば、チューリングマシンで計算できるどんな関数も近似できることを示す。(要するに、データの側に仕込めるから。)[26] TidyBot: Personalized Robot Assistance with Large Language Models[27] Think before you speak: Training Language Models With Pause Tokens[29] DoLa: Decoding by Contrasting Layers Improves Factuality in Large Language Models[30] A Watermark for Large Language Models[31] Large Language Models as Optimizers[32] Towards Self-Assembling Artificial Neural Networks through Neural Developmental Programs[33] A Survey of Large Language Models for Healthcare: from Data, Technology, and Applications to Accountability and Ethics[34] Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection[35] Large Language Models in the Workplace: A Case Study on Prompt Engineering for Job Type Classification[36] Understanding Retrieval Augmentation for Long-Form Question Answering[37] Safe RLHF: Safe Reinforcement Learning from Human Feedback[38] On the duality between contrastive and non-contrastive self-supervised learning[39] Graph Neural Prompting with Large Language Models[40] AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation[41] Personalized Soups: Personalized Large Language Model Alignment via Post-hoc Parameter Merging[42] ReConcile: Round-Table Conference Improves Reasoning via Consensus among Diverse LLMs[43] Data-Centric Financial Large Language Models[44] Approximation and Estimation Ability of Transformers for Sequence-to-Sequence Functions with Infinite Dimensional Input[45] Reasoning with Language Model is Planning with World Model[46] Human-like systematic generalization through a meta-learning neural network[47] Detecting Pretraining Data from Large Language Models[48] Can large language models provide useful feedback on research papers? A large-scale empirical analysis[49] Large Language Model Programs[50] Violation of Expectation via Metacognitive Prompting Reduces Theory of Mind Prediction Error in Large Language Models[51] Inferential Exclusion Prompting(IEP)[52] A Survey of Large Language Models (2023)[53] A Minimalist Dataset for Systematic Generalization of Perception, Syntax, and Semantics (2023)[54] Continual Pre-training of Language Models (2023)[55] A Non-monotonic Self-terminating Language Model (2023)[56] Automatic Chain of Thought Prompting in Large Language Models (2023)[57] Language models are multilingual chain-of-thought reasoners (2023)[58] ReAct: Synergizing Reasoning and Acting in Language Models[59] Generate rather than Retrieve: Large Language Models are Strong Context Generators[60] Reward Design with Language Models[61] Heterogeneous Neuronal and Synaptic Dynamics for Spike-Efficient Unsupervised Learning: Theory and Design Principles[62] Provable Memorization Capacity of Transformers (2023)[63] Binding Language Models in Symbolic Languages (2023)[64] CodeGen: An Open Large Language Model for Code with Multi-Turn Program Synthesis[65] Mobile UI Understanding using Vision-Language Models with a Focus[66] MEDICAL IMAGE UNDERSTANDING WITH PRETRAINED VISION LANGUAGE MODELS: A COMPREHENSIVE STUDY[67] Progress measures for grokking via mechanistic interpretability[68] PLOT: Prompt Learning with Optimal Transport for Vision-Language Models[69] Ask Me Anything: A simple strategy for prompting language models (2023)[70] Planning with Large Language Models for Code Generation (2023)[71] Mind's Eye: Grounded Language Model Reasoning through Simulation (2023)[72] On Pre-training Language Model for Antibody (2023)[73] Language Models are Realistic Tabular Data Generators (2023)[74] Language Models Can Teach Themselves to Program Better[75] Compositional Task Representations for Large Language Models (2023)[76] Task Ambiguity in Humans and Language Models[77] Selection-Inference: Exploiting Large Language Models for Interpretable Logical Reasoning[78] Large Language Models are Human-Level Prompt Engineers (2023)[79] Progressive Prompts: Continual Learning for Language Models (2023)[80] Least-to-Most Prompting Enables Complex Reasoning in Large Language Models[81] Bidirectional Language Models Are Also Few-shot Learners (2023)[82] PINTO: Faithful Language Reasoning Using Prompt-Gen

IPSJ-SIGNL
●06/06 03:40
第257回自然言語処理研究会 2023年9月1日(金) 予定 LINEセミナールーム(東京・四谷) 予定 7月下旬 予定

企業の方へ|神戸大学大学院 システム情報学研究科
●02/19 15:17
説明会開催を避けていただきたい期間について掲載しました(変更日:2022年2月18日)3/10(木) 研究室配属ガイダンス(*12:10~13:20のみ開催可)3/22(火) 研究室配属ガイダンス(*12:10~13:20のみ開催可)

ACL 2015, 26-31 July 2015 | Beijing
●12/16 04:58
Be back soon!
This website is under maintenance.
Check back tomorrow!
*If you窶决e the owner of this website and have questions, reach out to Bluehost. We窶决e happy to help.

ACL 2015 | Beijing
●12/15 23:24
Be back soon!
This website is under maintenance.
Check back tomorrow!
*If you窶决e the owner of this website and have questions, reach out to Bluehost. We窶决e happy to help.

機械学習についての日々の研究
●07/08 20:00
© Yahoo Japan

統計日記(目次)
●07/08 18:40
© Yahoo Japan

機械学習についての日々の研究
●07/08 17:21
© Yahoo Japan

就職担当窓口等一覧|神戸大学キャリアセンター
●03/10 14:47
電気電子工学専攻教授藤井 稔
(フジイ ミノル)
Tel:078-803-6106(電気電子事務室)研究室: 自3-202

ACL on Vimeo
●09/08 21:27
If you have a question about Vimeo, chances are we’ve already answered it in our FAQ. Take a look-see.

Diary
●03/03 15:57
急展開で学会やいろいろなセミナーが中止になっていく。。。
(2020.2.27)
中村研最終ゼミの企画、新型コロナを勘案して中止というか延期に。残念。
(2020.2.14)
連載無事終了。1年間大変でしたが、なんとか無事に最後までたどり着きました。途中から雑記帳感が薄くなったのがちょっと構想不足というか、なんにせよ、時間が足りなかった。
(2020.2.10)

KuboLog CURRENT
●07/22 21:46
- 07/20 | 07/21
(日付逆順版, 2019-07-22 21:28 更新)
本日 (kubolog20190721) | 1 日前 | 7 日前 | 31 日前 | 365 日前 | top
2019 年 07 月 21 日 (日)
メイリングリスト配送システム mailman,prefix 通し番号に zero padding にしたければ subject prefix [kubo_ml%02d] のように指定すればよい…とのこと… www.sthark.com/faq/3341/ 10:40:39
発寒(はっさむ)川、左岸のぼーい先生 pic.twitter.com/vrEfhcFRPt 13:27:21 How to Install Adobe Flash Player on Ubuntu vitux.com/how-to-install… 07:51:51
メイリングリスト配送システム mailman,prefix 通し番号に zero padding にしたければ subject prefix [kubo_ml%02d] のように指定すればよい…とのこと… www.sthark.com/faq/3341/ 10:40:39
発寒(はっさむ)川、左岸のぼーい先生 pic.twitter.com/vrEfhcFRPt 13:27:21
発寒川、渡渉作戦! pic.twitter.com/kBjW6JQgEE 15:19:19
本日 (kubolog20190721) | 1 日前 | 7 日前 | 31 日前 | 365 日前 | top
本日 (kubolog20190720) | 次の日 | 1 日前 | 7 日前 | 31 日前 | 365 日前 | top
本日 (kubolog20190720) | 次の日 | 1 日前 | 7 日前 | 31 日前 | 365 日前 | top
本日 (kubolog20190719) | 次の日 | 1 日前 | 7 日前 | 31 日前 | 365 日前 | top
本日 (kubolog20190719) | 次の日 | 1 日前 | 7 日前 | 31 日前 | 365 日前 | top
- 07/20 | 07/21

平成24年度 プログラミング言語II
●02/08 02:15
日時: 2015年2月2日(月) 14:30〓16:00 (90分)場所: 工学部本館706 (いつも講義を行っている部屋です)試験範囲: 第1回〓第11回講義の内容持ち込み: 任意の資料の持ち込みを可とする。また試験中に端末のDrRacketを使って解答してもよい。ただし、行ってよいのは、DrRacketの利用とMoodleのページへのアクセスおよび講義ページ ( http://aiweb.cs.ehime-u.ac.jp/~ninomiya/pl2/ ) へのアクセスのみとする。それ以外のソフトの利用やウェブページへのアクセスは不正行為とみなす。

How to be logical
●09/22 00:09
Mathematics
Class
引っ越しました
21/09/11 11:52
下のアドレスに引っ越しました。
http://members3.jcom.home.ne.jp/kantaro/Ja_zum_Leben_sagen/Blog/Blog.html
How to be logical >

人工知能基本問題研究会
●03/06 11:32
人工知能基本問題研究会(SIG-FPAI) のHPは
こちらに移動しました.

0.はてなアンテナトップ
8.このページを友達に紹介
9.このページの先頭へ
ヘルプ/お知らせ

ログイン
無料ユーザー登録
はてなトップ

(c) Hatena