Apr 27, 2026
2026年4月27日
AIニュースの多角的分析レポート
コミュニティ
AIコミュニティ動向レポート — 2026年4月27日
エグゼクティブサマリー
本日のAIコミュニティでは、ローカルLLM推論を支えるハードウェアの次世代競争と、推論高速化技術の実用化が活発に議論された。同時に、Claude Codeが7週間にわたって品質低下していたことをAnthropicが公式に認めたポストモーテムが日本語コミュニティで深く読まれ、開発者ツールへの信頼問題として反響を呼んだ。ベンチマーク汚染・ライセンス盗用・AI責任設計といった倫理的・制度的課題も複数浮上しており、技術的成熟と同時にコミュニティガバナンスの整備が急務になっていることが浮き彫りになった。AIが業務の中核に入り込む中で、PdMが自身の役割変化と精神的負荷を吐露する記事も注目を集め、技術と人間の関係を問い直す動きが広がっている。
ローカルLLMハードウェア:次世代統合メモリとFPGA活用の模索
-
AMDの次世代APU「Gorgon Halo」が2026年夏に登場予定。Strix Haloよりメモリクロック速度・帯域幅が15%向上し、さらに2027年夏の「Medusa Halo」はZen 6/RDNA5アーキテクチャでLPDDR6を採用し、約460〜690 GB/sのメモリ帯域を実現する見込み。Intel Nova Lake AXの約341 GB/s(LPDDR5X/6、2027年初頭予定)と並び、x86統合メモリシステムがApple Siliconに迫る現実的な選択肢として浮上している。
- Comparison of upcoming x86 unified memory systems — Reddit r/LocalLLaMA
-
AMD Alveo V80 FPGAをPCIeカードとして使い、Taalas HC1(LLMをチップに焼き込む専用ASICハードウェア)の廉価代替として機能させる構想が提起された。Gemini Proに実現可能性を問い合わせた結果、Qwen3.5 4BのQ4量子化で最大3,200 tok/s、9Bで約1,400 tok/sという推定値が示された。投機的デコーディング的セットアップをFPGA上に実装する提案で、コミュニティでの検証が期待される。
- Thoughts on using an AMD Alveo V80 FPGA PCI card — Reddit r/LocalLLaMA
-
Mesa PRがLinux上のIntel Xe2向けVulkanバックエンドにllama.cppのプロンプト処理(PP)パフォーマンスを37〜130%向上させることが報告された。ゲーミング向けiGPUをLLM推論に転用する動きが加速しており、AMD・Intel双方でオープンソースドライバスタックの重要性が増している。
- mesa PR with 37-130% llama.cpp pp perf gain for vulkan on Linux on Intel Xe2 — Reddit r/LocalLLaMA
-
27〜31Bモデルを快適に動かすためのGPU選定議論が活発化。16GB AMD Radeon RX 7800 XT(実売約$700)が現実的な基準点となっており、デュアルGPU構成(9700XT Pro + 7800XTで合計48GB VRAM)とシングル大容量カードのコストパフォーマンス比較が焦点になっている。また、DGX SparkやMac Studio 512GB M3 Ultraなど携帯性を考慮したハイエンド選択肢を検討する声もあり、ホビイストの購買行動が本格化している。
- Hardware Choice for 27b to 31b models — Reddit r/LocalLLaMA
- Is there any top level hobbyist hardware you guys are waiting to come out this year? — Reddit r/LocalLLaMA
推論高速化技術:量子化・投機的デコーディングの実用事例
-
Unslothが提供するモデルは、レイヤーごとの感度分析に基づいて量子化レベルを動的に割り当てる「非均一量子化」を採用。Qwen3.6 35B A3BのQ4_K_Mで39 tok/s(通常版)に対し、Unsloth UD-Q4_K_XLでは57 tok/sと約46%の速度向上がMacBook Pro 64GBで実測された。品質面でも通常量子化より劣化が少ないとされ、ローカル推論の実用性を大きく引き上げている。
- Are Unsloth models as good as I read? — Reddit r/LocalLLaMA
-
Gemma-4-31B(メインモデル)とGemma-4-E2B(ドラフトモデル)を組み合わせた投機的デコーディングで、非英語(リトアニア語)の特定タスクにおいて120〜200 tok/sの出力速度を達成した事例が共有された。法律文書からの参照抽出・分類・タイトル調整などの単純LLMワークフローで実用化されており、商用FlashモデルからローカルOSSモデルへの移行コストを正当化する指標として注目される。
- Speculative decoding with Gemma-4-31B + Gemma-4-E2B enables 120-200 tok/s output speed — Reddit r/LocalLLaMA
-
投機的デコーディングの主要手法(EAGLE-3・Medusa-1・PARD・ドラフトモデル・N-gram・サフィックスデコーディング)をゼロから実装した教育向けリポジトリが公開された。既存ライブラリのラッパーではなく、共通インターフェース下での各手法の差異を学習できる構成が特徴で、研究者・実装者の双方に価値がある。
- Speculative Decoding Implementations: EAGLE-3, Medusa-1, PARD… — Reddit r/MachineLearning
-
Qwen3.6 27B(dense)が同社のMoEアーキテクチャ版35B A3Bよりコーディングタスクで体感上明らかに優れているとのユーザー報告が上がった。32GB RAM + 16GB VRAM(RTX 5070 Ti)環境でOpenCodeとの組み合わせを検証した結果で、MoEモデルの推論品質と dense モデルの比較に関して実態的なデータが積み上がりつつある。
- Switched from Qwen3.6 35b-a3b to Qwen3.6 27b mid coding and it’s noticeably better! — Reddit r/LocalLLaMA
-
Qwen3.6 35B A3Bの「Heretic」バリアント(非検閲版)が、IQ4XS量子化・Q8 KVキャッシュ・262Kコンテキストで24GB VRAMに収まりながら、マルチターンツールコールで安定動作すると評価されている。KL divergence値は0.0015と極めて低く、有害でないプロンプトに対しては元モデルとほぼ同等の挙動が期待できる。
- Qwen3.6 35B A3B Heretic (KLD 0.0015!) Incredible model — Reddit r/LocalLLaMA
-
NVIDIAが公開したNemotron 3 Nano(30B-A3BのハイブリッドMamba-Attention-MoEアーキテクチャ)でのファインチューニングに関する技術的議論が展開された。通常のdense Transformerとはアーキテクチャが大きく異なるため、学習率スケジュール・シーケンス長・状態リセットタイミングなど従来の知見がそのまま適用できない可能性があり、コミュニティへの情報共有が求められている。
- Going from 3B/7B dense to Nemotron 3 Nano (hybrid Mamba-MoE) — Reddit r/MachineLearning
Claude Code品質危機:7週間の劣化とコミュニティの対応
-
Anthropicが2026年4月23日に公開したポストモーテムで、2026年3月4日〜4月20日の約7週間、Claude Codeの応答品質が低下していたことを正式に認めた。原因は「独立した3つのバグが時期をずらして重なった」という複合障害で、単一障害ではなく検知・対応が遅れた。「最近Claudeが賢くなくなった」という開発者の体感は事実だったことが確認され、日本語コミュニティで広く共有された。
-
Claudeが「現在時刻を持たない」という設計上の特性が、ユーザー体験の混乱として顕在化している。「おはよう」に夜のテンションで返答したり、「今日の話」を昨日扱いするのは、AIが内部に時間を保持せずテキストの文脈から推測しているため。このLLMの根本的な仕組みをわかりやすく解説した記事が注目を集め、ユーザーの誤解解消に貢献している。
- Claude、時間バグってない?と思ったら”そもそも存在してなかった”話 — Zenn LLM
-
Claude CodeのスキルをOpenCodeへ移植した「opencode-power-pack」が公開された。AnthropicのClaude Code公式プラグインは
commands/とagents/ディレクトリを使用するがOpenCode非対応であり、skills/(YAMLフロントマター付きMarkdown)だけがエージェント横断の共通標準であることが指摘された。Claude Codeへの依存を避けながらスキル資産を活用したい開発者に対し、具体的な移行パスを提示している。- Opencode-power-pack – Claude Code skills ported to OpenCode — Reddit r/LocalLLaMA
-
「Claude Codeを安全に使おう」をテーマにした勉強会資料(SpeakerDeck)が公開され、はてなブックマークITカテゴリでトレンド入りした。Claude Codeの普及に伴い、プロンプトインジェクション・機密情報漏洩・過剰権限付与といったセキュリティリスクへの意識が日本の開発者コミュニティで高まっていることを示している。
- Claude Code を安全に使おう勉強会 / Claude Code Security Basics — はてなブックマーク IT
ベンチマーク信頼性の崩壊と大規模モデル評価の再定義
-
SWE-Benchが「ベンチマックス済みベンチマーク」として事実上の信頼性喪失が確認された。ベンチマーク結果のみを最大化するためのオーバーフィット(benchmaxxing)が蔓延しており、実際のコーディング能力を測定する指標としての有効性が疑問視されている。業界全体でより汚染耐性の高い評価手法が求められる状況になった。
- Confirmed: SWE Bench is now a benchmaxxed benchmark — Reddit r/LocalLLaMA
-
2026年4月23日にOpenAIがリリースしたGPT-5.5(コードネーム”Spud”)は、GPT-4.5以来初の完全再学習ベースモデルで、Terminal-Bench 2.0で82.7%を記録した一方、SWE-Bench ProではClaude Opus 4.7に5.7ポイント差をつけられ、ハルシネーション率86%という課題も報告された。Claude Opus 4.7・Gemini 3.1 Pro・DeepSeek V4との多角的比較から、モデルが得意不得意を持つ「専門化」が進み、単一スコアでの評価が無意味になりつつある。
-
大規模MLラボ(OpenAI・Anthropic等)のモデルが実世界利用を独占している根本的な理由として、「事前学習コストより事後学習(RLHF/RL)の質と規模が決定的」という議論が展開された。KimiやDeepSeekが同規模の事前学習を完了していても実用品質に差があるのは、RLの規模・データ品質・インフラ最適化の蓄積差によるものとされ、OSSが事前学習を民主化しても推論能力競争の構造的優位は大規模ラボが握り続けるという見方が示された。
- Why do only big ML labs dominate widely-used models despite many open-source pretrained models? — Reddit r/MachineLearning
オープンソース倫理:ライセンス盗用とデータ品質標準化
-
HuggingFaceで月間合計500万以上のダウンロードを誇るHauhauCSの22モデルが、AGPLv3ライセンスのHereticプロジェクトをアトリビューションなしにコピーしたことが確認された。PyPIのCDNから削除済みソースコードを復元してフォーク元を特定したという調査手法が注目を引き、「プライベートな独自手法」と説明していた主張が虚偽だったことが明らかになった。OSSモデルコミュニティにおけるライセンス遵守の実効性が問われている。
- HauhauCS published an abliteration package that plagiarizes Heretic without attribution — Reddit r/LocalLLaMA
-
MLデータセットの品質を客観的に証明する第三者認証システム「LabelSets(LQS v3.1)」が公開された。7つのスコアラーと5つのアルゴリズムファミリーによるマルチオラクル評価、下流F1スコアへの共形予測区間、Ed25519署名付き証明書を備え、MMLU・HumanEval・GSM8K・MedQA・LegalBench等40以上の公開評価との汚染チェックも実施する。HuggingFaceのデータセットURLをペーストするだけで無料監査が可能で、データ品質のインフラ整備が本格化している。
- LabelSets — open quality standard for AI training data (LQS v3.1) — Reddit r/MachineLearning
AIと社会:責任設計・労働変化・セキュリティの交差点
-
AIエージェントが「提案→人間承認→システム実行→ログ記録」の全ステップを経ても、問題発生時に「誰が止めるべきだったか」が特定できない現象を「責任経路工学」として設計対象に昇格させる概念が提起された。Webアクセス・API呼び出しを行う自律エージェントにおいて、責任がどこで発生しどこで止まるかの経路設計が、AI時代のシステム安全性の核心になるという論考が展開されている。
- 責任を固定するだけでは足りない――責任経路工学という設計対象 — Zenn LLM
-
生のソースコードをそのままLLMに渡すのは「情報の暴力」であり、AST(抽象構文木)から構造マップのみを抽出してAIに渡す手法がセキュリティ脆弱性の特定精度を大幅に改善するという理論が提示された。コードを1行も読ませずに脆弱性を100%特定するという主張は誇張を含むが、構造化された入力形式がLLMの能力を引き出すという原則は広く適用可能で、プロンプトエンジニアリングへの示唆が大きい。
- コードを1行も読ませずに、AIに脆弱性を100%特定させる方法(理論編) — はてなブックマーク IT
-
PdMがAIによって業務の半分を代替されたという一人称の体験記が注目を集めた。業務効率化の成功体験と同時に、役割の空白感・自己有用性の喪失・精神的負荷の増大が起き、筆者は病院に通い始めたという。AIが医療現場の文書作成に実際に使われ始めている現実も描かれており、技術採用の人間的コストを正面から語った稀有な記録として広く共有されている。
- PdMの仕事の半分は、AIに奪われた。残り半分で、私は病院に通い始めた — はてなブックマーク IT
日本語AI活用コミュニティ:実践的ノウハウの共有
-
YouTubeの「書き起こし」テキストをAPIで取得し、Claude CodeのSkillで手動要約・翻訳するワークフローが紹介された。毎日更新されるAI関連動画情報のキャッチアップコストを下げる実用的な手法で、「情報洪水への対処」という現代AI開発者の共通課題に応えている。LLMによる自動要約まで自動化することも可能とされており、個人向けAI情報処理パイプラインの参考事例として機能している。
- YouTube動画から文字起こしをAPIで取得する — Zenn LLM
-
ナイジェリア在住者が日本語を「情報圧縮システム」と評した投稿がはてなブックマークでトレンド入りした。漢字・ひらがな・カタカナが同一文中で役割分担することでセマンティクス密度が高くなるという観察は、多言語LLMのトークン効率研究とも接続できる視点であり、日本語AIコミュニティが自言語の特性を再発見する契機となっている。
- ナイジェリアから質問『日本語は単なる「文字の言語」でなく、一種の「情報圧縮システム」のように感じるようになりました。』 — はてなブックマーク IT
AI最新ニュース
AI最新ニュース:2026年4月27日
AIをめぐる競争が「ツール」から「経済構造」そのものを変える段階に突入しつつあることが、本日の記事群から鮮明に浮かび上がる。OpenAIはCodexを廃止してGPT-5.5へ一本化するなど、モデル戦略の再編を進める一方、AnthropicのProject Dealや富裕層偏重のClaude利用実態は、AIが新たな経済格差を生み出す構造的リスクを示している。金融業界では500名以上のバンカーがAI出力を検証し、いずれも「クライアントに送れる水準ではない」と判断——実用化と限界が同時進行する複雑な現実がある。エンジニアリングの現場では「トークンマクシング」という新指標が台頭し、AIの使いこなし力そのものが評価軸になり始めた。TypeScript 7.0のGo移植という技術的マイルストーンも、開発体験を根底から変えうる動きとして注目される。
OpenAI GPT-5.5の戦略再編と開発者への影響
-
OpenAIは専用コーディングモデル「Codex」を再度廃止し、その機能をGPT-5.5に完全統合した。「より強力なエージェント型コーディング能力」と「トークン消費量の削減」を両立すると説明しており、専用モデル分離から統合型アーキテクチャへの路線転換が明確になった。
- OpenAIがCodexを再び廃止、GPT-5.5に統合 — The Decoder
-
GPT-5.5に既存プロンプトをそのまま持ち込むと、モデルの性能が十分に引き出せないとOpenAI自身が警告。推奨は「最小限の構成からゼロベースで書き直す」こと。一時期「不要論」が広まっていたロール定義(role definition)が再び重要視されており、プロンプトエンジニアリングの常識が更新された。
- 古いプロンプトがGPT-5.5の足かせになっている——OpenAIが開発者に新しいベースラインを要求 — The Decoder
-
2つの記事を合わせると、GPT-5.5は「使いこなし方を知っている開発者だけが恩恵を受けるモデル」という構造が浮かぶ。モデルの統合によってAPIの窓口はシンプルになるが、その分、最適なプロンプト設計という知識の非対称性が開発者間の生産性格差に直結する。
- OpenAIがCodexを再び廃止 — The Decoder
- GPT-5.5向けの新しいベースライン要求 — The Decoder
AIが生む経済格差:富の集中と無自覚なリスク
-
AnthropicのAIエージェント市場実験「Project Deal」では、Claudeを搭載したエージェント同士に従業員の私物を交渉・売買させた結果、高性能モデルほど有利な条件を引き出すことが判明。ユーザーが自分の不利益に気づかないまま格差が積み重なるシナリオが実証された。
- Project Dealで浮き彫りになる無自覚な経済格差 — ITmedia AI+
-
米国でのClaude週次アクティブユーザーの収入分布は、ChatGPT・Gemini・その他の競合サービスと比較して著しく高収入層に偏っていることが調査で判明。AIアシスタントの利用格差が「使えるか否か」ではなく「どのモデルを使うか」の次元で既に生じている。
- ClaudeユーザーはライバルAIより圧倒的に富裕層に偏っている — The Decoder
-
ベイエリアでは「購入にAnthropicの株式保有が必要」という13エーカーの物件売買条件が話題に。AI企業株を資産として持つ層と持たない層の分断が、不動産市場レベルにまで波及していることを象徴する事例。
- このベイエリアの家を買うにはAnthropicの株が必要 — TechCrunch AI
-
3件の記事を横断すると、AIの恩恵を受ける主体は現時点でも「すでに優位な立場にいる人」に集中しやすいという構造が見えてくる。Project Dealが警告するのは、この格差がエージェント時代には「無自覚に」かつ「自動的に」拡大していく可能性だ。
- Project Dealで浮き彫りになる無自覚な経済格差 — ITmedia AI+
- ClaudeユーザーはライバルAIより富裕層に偏っている — The Decoder
エンジニアリングの再定義:「トークンマクシング」と役割の拡張
-
シリコンバレーで「トークンマクシング(Tokenmaxxing)」という概念が台頭。AIにどれだけ多くのトークンを消費させて仕事をさせられるかが、エンジニアの生産性指標・評価基準として機能し始めており、「AIを使わないエンジニアは仕事をしていない」という空気感が醸成されつつある。
- AIを使わないエンジニアは「仕事をしていない」?——トークンマクシングという新常識 — ITmedia AI+
-
チャルマース工科大学とボルボグループの研究者による論文は、「AIエージェントがプログラマーを駆逐する」という物語を否定し、AIはソフトウェアエンジニアリングをコードの外側に向けて大きく拡張していると主張。システム設計・要件定義・品質保証といったコード以外の領域こそが、今後のエンジニアに求められる核心になるとしている。
- AIエージェントはソフトウェアエンジニアリングを置換せず、コードを超えて拡張する — The Decoder
-
2件を合わせると、「AIを使いこなす技術」と「AIには任せられない領域を担う技術」の両方がエンジニアに要求されるという二重構造が浮かぶ。トークンマクシングは前者の極端な体現であり、チャルマースの論文は後者の重要性を強調している。
- トークンマクシングという新常識 — ITmedia AI+
- AIエージェントとソフトウェアエンジニアリングの拡張 — The Decoder
金融業界における現実:AI出力の限界と実用の狭間
-
500名の投資銀行員が、GPT-5.4やClaude Opus 4.6をジュニアバンカー相当の業務タスクに使った出力をレビューした結果、1件もクライアントに直接送れる水準に達していないと評価。精度不足・誤りが主な理由。
- 500名の投資銀行員がAI出力をレビューし、クライアント納品不可と判断 — The Decoder
-
一方で、回答した銀行員の過半数以上が「出発点(starting point)として活用する」と回答。「完成品ではないが素材としては有用」という評価は、AIの実用フェーズが「自律実行」から「人間との協働下での加速」に定まりつつあることを示している。
- 500名の投資銀行員がAI出力をレビュー — The Decoder
-
金融という高精度・高リスク領域での結果は、他の専門職領域へのAI導入を議論する際の重要なベンチマークになる。「使えない」ではなく「どこまで任せられるか」を定量的に示した点で、実務導入の意思決定に直結するデータだ。
- 500名の投資銀行員がAI出力をレビュー — The Decoder
開発ツールの革新:TypeScript 7.0とGo移植
-
MicrosoftがTypeScriptコンパイラをGo言語に移植した初のバージョン「TypeScript 7.0」のベータ版を公開。コンパイル速度が従来比最大10倍に向上するとされており、大規模フロントエンドプロジェクトの開発体験を根本的に変える可能性がある。
-
Goへの移植は単なるパフォーマンス改善にとどまらず、TypeScriptのエコシステム全体(LSP、型チェックツール、CI/CDパイプライン)に波及する変化。型の安全性を保ちながらビルド待ち時間がなくなることで、AI支援コーディングとの相性も向上する。
- TypeScript 7.0ベータ版公開 — Publickey
-
エンジニアリング拡張の議論(前掲テーマ)と合わせると、AIがコードを生成する速度に対して「コンパイル・型チェックが律速になる」問題が顕在化しつつある中で、TypeScript 7.0はその課題に直接応えるタイミングでの登場となる。
- TypeScript 7.0ベータ版公開 — Publickey
- AIエージェントとソフトウェアエンジニアリングの拡張 — The Decoder
AI研究・論文
AI研究・論文レポート:2026年4月27日
AIエージェントが研究段階から本番環境へと移行する中、「どう評価するか」という問いが業界の中心課題として浮上している。本日のレポートでは、エージェント評価ベンチマークの再定義、ベクトル検索に依存しない新世代RAGの登場、xAIによる音声モデルの性能更新という三つの潮流を横断的に分析する。いずれも「実用化フェーズ」における品質保証・信頼性確保という共通の圧力から生まれたイノベーションであり、2026年後半の産業展開に直接影響を与える。
AIエージェント評価:ベンチマーク競争の再設定
-
LLMの能力評価において、従来のMMULやパープレキシティスコアは「実際のエージェント動作」をほとんど反映しないという問題が顕在化している。Webナビゲーション・GitHubのIssue解決・カスタマー対応フローなど、マルチステップの実世界タスクを再現するベンチマークが「実質的な標準」として台頭しつつある。
-
xAI の
grok-voice-think-fast-1.0は τ-voice Bench で67.3% を記録し、Gemini・GPT Realtime・自社前モデルを上回ったと発表された。小売・航空・通信の3業種ワークフローを対象とした評価であり、単一スコアではなく垂直産業ドメインでの実用性を測定する設計が採用されている点が注目される。 -
「エージェントとして優秀か」を問うベンチマークへの移行は、評価軸そのものが企業差別化の競争領域になりつつあることを示す。τ-voice Benchのようなドメイン特化ベンチが公認されれば、汎用ベンチよりも製品選定の根拠として購買担当者に参照されやすくなる。
推論ベースRAG:ベクトル類似度を超える文書検索
-
従来のRAGパイプラインはクエリと文書チャンクをベクトル空間に埋め込み「最近傍」を取得するが、これは「類似度」を「関連度」の代理指標として使う設計であり、財務報告書・論文・法的文書など構造的に複雑なドキュメントでは精度が著しく低下する。
- RAG Without Vectors: How PageIndex Retrieves by Reasoning — MarkTechPost
-
PageIndex はベクトル類似度を使わず、推論によって関連ページを特定するアプローチを採用する。モデルが「どのページに答えが書いてありそうか」を推論してから取得するため、長大な専門文書においてもコンテキストの意味的整合性が保たれる。
- RAG Without Vectors: How PageIndex Retrieves by Reasoning — MarkTechPost
-
このアプローチは検索インデックスの構築コスト(埋め込み生成・ベクトルDBの維持)を削減できる可能性を持つ一方、推論ステップが増える分レイテンシとトークンコストのトレードオフが生じる。企業導入においては「精度か速度か」の選択がより明示的に迫られる設計といえる。
- RAG Without Vectors: How PageIndex Retrieves by Reasoning — MarkTechPost
大規模データ可視化の実践:Datashaderとリダクション集約
-
Datashaderは従来の描画ライブラリでは処理しきれない億単位の点群データをレンダリングするために設計されたPythonライブラリであり、Google Colab環境での実行を前提としたチュートリアルが公開された。
-
パイプラインは「点群 → リダクションベース集約 → カテゴリカルレンダリング → ラスタデータ → Quadmeshグリッド → コンポジット → ダッシュボード」という段階的構成を採り、各ステップでのメモリ効率とインタラクティブ性を両立する設計となっている。
-
AIモデルの出力を大量に分析・可視化するニーズが高まる中、Datashaderのようなリダクション集約ツールはML実験のモニタリングや埋め込み空間の探索においても実用的な選択肢となりつつある。MatplotlibやPlotlyが限界に達するスケールでの分析に対応できる点が差別化要因。
Past Reports
- 2026年4月26日 →
- 2026年4月25日 →
- 2026年4月24日 →
- 2026年4月23日 →
- 2026年4月22日 →
- 2026年4月21日 →
- 2026年4月20日 →
- 2026年4月19日 →
- 2026年4月18日 →
- 2026年4月17日 →
- 2026年4月16日 →
- 2026年4月15日 →
- 2026年4月14日 →
- 2026年4月13日 →
- 2026年4月12日 →
- 2026年4月11日 →
- 2026年4月10日 →
- 2026年4月9日 →
- 2026年4月8日 →
- 2026年4月7日 →
- 2026年4月6日 →
- 2026年4月5日 →
- 2026年4月4日 →
- 2026年4月3日 →
- 2026年4月2日 →
- 2026年4月1日 →
- 2026年3月31日 →
- 2026年3月30日 →
- 2026年3月29日 →
- 2026年3月28日 →
- 2026年3月27日 →
- 2026年3月26日 →
- 2026年3月25日 →
- 2026年3月24日 →
- 2026年3月23日 →
- 2026年3月22日 →
- 2026年3月20日 →
- 2026年3月19日 →
- 2026年3月18日 →
- 2026年3月17日 →
- 2026年3月16日 →
- 2026年3月15日 →
- 2026年3月14日 →
- 2026年3月13日 →
- 2026年3月11日 →
- 2026年3月10日 →
- 2026年3月9日 →
- 2026年3月8日 →
- 2026年3月7日 →
- 2026年3月6日 →
- 2026年3月5日 →
- 2026年3月4日 →
- 2026年3月3日 →
- 2026年3月2日 →
- 2026年3月1日 →
- 2026年2月28日 →
- 2026年2月27日 →
- 2026年2月26日 →
- 2026年2月25日 →
- 2026年2月24日 →
- 2026年2月23日 →
- 2026年2月22日 →
- 2026年2月20日 →
- 2026年2月19日 →
- 2026年2月18日 →
- 2026年2月17日 →
- 2026年2月16日 →
- 2026年2月15日 →
- 2026年2月14日 →