<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"><channel><title>ニュースイミー - データベース</title><description>カテゴリー「データベース」の記事一覧</description><link>https://www.newswimmy.com/</link><item><title>大河ドラマ「豊臣兄弟！」を楽しむ　【グラフDB×グラフRAG×マップアニメーション】</title><link>https://note.com/asahi_ictrad/n/n88d580fd3a3c</link><guid isPermaLink="true">https://note.com/asahi_ictrad/n/n88d580fd3a3c</guid><description>大河ドラマ「豊臣兄弟！」を題材に、グラフデータベース、グラフRAG、マップアニメーションといった最新技術を活用したニュースメディア開発の事例を紹介する記事です。
*   グラフDBとグラフRAGの組み合わせによる、情報間の関連性を効率的に抽出し、ユーザーに分かりやすく提示する方法。
*   マップアニメーション技術を用いて、歴史的な出来事や人物の関係性を視覚的に表現するアプローチ。
*   技術的な側面から、エンターテイメントコンテンツの新たな楽しみ方や情報提供の可能性を探求する。

この記事は、最新技術に関心のあるエンジニア、データサイエンティスト、メディア開発者、そして新しい技術を使ったコンテンツ制作に興味のある方々に向けて書かれています。</description><pubDate>Mon, 13 Apr 2026 03:00:00 GMT</pubDate></item><item><title>Aurora MySQLの負荷は高騰していないのにエラーレートが悪化した原因がPerformance Schemaだった話</title><link>https://developers.cyberagent.co.jp/blog/archives/63419/</link><guid isPermaLink="true">https://developers.cyberagent.co.jp/blog/archives/63419/</guid><description>・Aurora MySQLで負荷が増加していないにも関わらずエラーレートが悪化した事象について、原因がPerformance Schemaにあったことを解説。
・データベースのパフォーマンスチューニングやトラブルシューティングの経験があるエンジニア。
・AWSやMySQLを利用しているインフラ・SRE担当者。</description><pubDate>Mon, 13 Apr 2026 02:58:48 GMT</pubDate></item><item><title>2026年度 新卒研修「サイバーエージェントのデータベース活用事例とパフォーマンス調査入門」</title><link>https://developers.cyberagent.co.jp/blog/archives/63348/</link><guid isPermaLink="true">https://developers.cyberagent.co.jp/blog/archives/63348/</guid><description>・サイバーエージェントが2026年度新卒研修として実施した「データベース活用事例とパフォーマンス調査入門」の概要
・データベースの活用事例やパフォーマンス調査の入門的な内容について解説
・データベースエンジニア、インフラエンジニア、またはデータベースに興味のある学生・若手エンジニア向け</description><pubDate>Sun, 12 Apr 2026 23:00:26 GMT</pubDate></item><item><title>安全にMySQLのメジャーバージョンのアップグレードを行うために本番環境で実行されたクエリを使って検証を行った話</title><link>https://note.com/communeinc/n/nbf505119993c</link><guid isPermaLink="true">https://note.com/communeinc/n/nbf505119993c</guid><description>- 本記事は、MySQLのメジャーバージョンアップグレードを本番環境で安全に行うための検証プロセスについて解説しています。
- 本番環境で実行されたクエリを用いた検証方法や、それに伴う課題と対策に焦点を当てています。
- MySQLの運用に携わるエンジニア、特にデータベース管理者やインフラエンジニア、SRE担当者、テックリード向けの記事です。</description><pubDate>Fri, 10 Apr 2026 04:22:11 GMT</pubDate></item><item><title>Foundry Agent × Streamlit × Cosmos DB で会話履歴付き AI アプリ構築</title><link>https://qiita.com/FukuharaYohei/items/9caec69fe961c7007178</link><guid isPermaLink="true">https://qiita.com/FukuharaYohei/items/9caec69fe961c7007178</guid><description>・Microsoft Foundry Agent Service, Streamlit, Cosmos DB を利用して、会話履歴を保存できるAIチャットアプリを構築する手順を解説。
・AIアプリ開発における会話履歴の保存方法の重要性と、その解決策としてCosmos DBを紹介。
・AI開発者、バックエンドエンジニア、データベースエンジニアなど、AIアプリケーション開発に関心のある層向け。</description><pubDate>Thu, 09 Apr 2026 10:35:17 GMT</pubDate></item><item><title>ID.me、1 億 6,000 万ユーザーに対応するスケーリングと運用リスクの軽減を同時に達成</title><link>https://cloud.google.com/blog/ja/products/databases/id-me-scales-and-fights-ai-fraud-with-alloydb/</link><guid isPermaLink="true">https://cloud.google.com/blog/ja/products/databases/id-me-scales-and-fights-ai-fraud-with-alloydb/</guid><description>ID.meは、1億6000万ユーザーに対応するため、50TBのデータをGoogle Cloudに移行し、AlloyDB、Cloud SQL、Vertex AIを活用した最新アーキテクチャを採用しました。これにより、スケーラビリティの向上、不正行為検出精度の向上、開発サイクルの短縮（40%削減）を実現しました。

この記事は、ID.meのような大規模なデジタルIDプラットフォームのインフラストラクチャ構築、スケーリング、セキュリティ強化に関心のあるエンジニア、アーキテクト、インフラ担当者、そしてプロダクトマネージャー向けです。

Google Cloudへの移行により、ID.meはピーク時の負荷にも対応できる信頼性の高いシステムを構築し、AIを活用した不正対策を強化することで、ユーザーに安全でシームレスなデジタルID体験を提供しています。</description><pubDate>Thu, 09 Apr 2026 02:00:00 GMT</pubDate></item><item><title>KubernetesでCDC基盤を構築した話 ~ Strimzi(Kafka)・Debezium・Snowflakeを使ったMySQLデータの自動同期基盤 ~</title><link>https://developers.cyberagent.co.jp/blog/archives/62571/</link><guid isPermaLink="true">https://developers.cyberagent.co.jp/blog/archives/62571/</guid><description>- Kubernetes上でStrimzi(Kafka)、Debezium、Snowflakeを用いてMySQLデータとリアルタイムで同期するCDC基盤を構築した経験について解説します。
- MySQLデータの変更をリアルタイムに取得し、Snowflakeに自動同期させるための技術選定とアーキテクチャ設計に焦点を当てています。
- インフラエンジニア、バックエンドエンジニア、データベースエンジニア、またはデータパイプライン構築に関心のある方を対象としています。</description><pubDate>Thu, 09 Apr 2026 00:23:24 GMT</pubDate></item><item><title>エージェント型 AI の時代を支える Spanner のマルチモデルによる強み</title><link>https://cloud.google.com/blog/ja/products/databases/spanners-multi-model-advantage-for-agentic-ai/</link><guid isPermaLink="true">https://cloud.google.com/blog/ja/products/databases/spanners-multi-model-advantage-for-agentic-ai/</guid><description>エージェント型AIの時代において、データベースは単なるデータ保管庫から、AIの推論を支援し能動的なアクションを促すインテリジェントなコンテキストハブへと進化しています。Google CloudのSpannerは、リレーショナル、ベクトル、グラフなどの複数のデータモデルを統合し、グローバルな整合性とスケーラビリティを提供するマルチモデルデータベースとして、AI時代の要求に応えます。

この記事は、AIの導入を検討している、または既に導入している企業や開発者、特にAI基盤としてのデータベースの役割と、Spannerのようなマルチモデルデータベースの利点に関心のある技術リーダーやアーキテクトを対象としています。

Spannerは、リレーショナル、Key-Value、グラフ、ベクトル、全文検索など、多様なデータモデルを単一のデータベースで扱える相互運用性に優れたマルチモデル機能を提供します。これにより、データサイロ、運用の複雑さ、データ不整合といった従来の課題を解決し、AIアプリケーションの開発と運用を大幅に簡素化・加速させます。MakeMyTripの事例では、複数のデータベースをSpannerに統合することで運用コストを削減し、AIによるパーソナライズされた旅行提案の精度と開発速度を向上させたことが示されています。</description><pubDate>Tue, 07 Apr 2026 02:00:00 GMT</pubDate></item><item><title>Manhattan Associates、Google Cloud データベースで 1 日に 10 億件以上の API 呼び出しを処理</title><link>https://cloud.google.com/blog/ja/products/databases/how-cloud-sql-powers-manhattan-associates-ai-supply-chain-platform/</link><guid isPermaLink="true">https://cloud.google.com/blog/ja/products/databases/how-cloud-sql-powers-manhattan-associates-ai-supply-chain-platform/</guid><description>Manhattan Associatesは、OracleおよびDB2からGoogle Cloudデータベース（Cloud SQL、BigQuery）へ移行し、SaaSプラットフォームをモダナイズしました。
この移行により、1日あたり10億件以上のAPI呼び出しを150ミリ秒未満の応答時間で処理できるようになり、数万の店舗と物流センターで数十万人のユーザーをサポートしています。
記事は、Google Cloudへの移行によるパフォーマンス向上、スケーラビリティ、運用の容易さ、そして生成AIの活用可能性について、ITインフラ、データベース、バックエンドエンジニア、アーキテクト、プラットフォームエンジニア向けに解説しています。</description><pubDate>Mon, 06 Apr 2026 02:10:00 GMT</pubDate></item><item><title>Claude CodeとSnowflake MCPを使って、dbtモデルのパフォーマンスチューニングを自動化した話</title><link>https://zenn.dev/dely_jp/articles/9962b33ad86bc3</link><guid isPermaLink="true">https://zenn.dev/dely_jp/articles/9962b33ad86bc3</guid><description>- Claude CodeとSnowflake MCPを活用し、dbtモデルのパフォーマンスチューニングを自動化する手法について解説しています。
- データエンジニアが担う幅広い業務の中から、特にパフォーマンスチューニングの難しさと、その自動化による効率化に焦点を当てています。
- データエンジニア、特にSnowflake環境でのパフォーマンス改善や効率化に関心のあるエンジニア向けの記事です。</description><pubDate>Thu, 02 Apr 2026 03:00:08 GMT</pubDate></item><item><title>高性能で耐故障なMySQL互換DBMS「Kamo」の開発</title><link>https://knowledge.sakura.ad.jp/50280/</link><guid isPermaLink="true">https://knowledge.sakura.ad.jp/50280/</guid><description>慶應義塾大学の研究チームが、高性能かつ耐故障性に優れたMySQL互換のデータベース管理システム「Kamo」を開発しました。
これは、2025年度未踏IT人材発掘・育成事業の一環として行われたものです。
本記事は、データベース技術に関心のあるエンジニアや研究者向けの内容です。</description><pubDate>Thu, 02 Apr 2026 02:00:00 GMT</pubDate></item><item><title>DBの差分データの取得方式を整理してみる</title><link>https://zenn.dev/levtech/articles/aa20ecb80fbcee</link><guid isPermaLink="true">https://zenn.dev/levtech/articles/aa20ecb80fbcee</guid><description>・データ連携において、DBの差分データを取得する方式について、実装・運用の観点から整理した記事です。
・差分データ取得方式の比較や、具体的なツールの紹介は多いものの、横断的な日本語記事が少ないため、本記事で体系的にまとめられています。
・データベースやバックエンド、インフラ周りのエンジニアで、データ連携や差分データ取得の実装・検討を行っている人向けです。</description><pubDate>Wed, 01 Apr 2026 04:51:43 GMT</pubDate></item><item><title>主キーはもう「UUIDv7」一択なのか？ 〜 ID技術の歴史的変遷と現時点の最適解 〜</title><link>https://zenn.dev/loglass/articles/c2db7e85702571</link><guid isPermaLink="true">https://zenn.dev/loglass/articles/c2db7e85702571</guid><description>・データベースの主キーの選択肢としてUUIDv7が注目されている背景を解説。
・ID技術の歴史的変遷を踏まえ、UUIDv7が現時点での最適解となりうる理由を探る。
・データベース設計やシステム基盤に関わるエンジニア、プロダクトマネージャー向けの記事。</description><pubDate>Wed, 01 Apr 2026 04:46:05 GMT</pubDate></item><item><title>読み取りのスケーラビリティを合理化する Cloud SQL の自動スケーリングを備えた読み取りプール</title><link>https://cloud.google.com/blog/ja/products/databases/cloudsql-read-pools-support-autoscaling/</link><guid isPermaLink="true">https://cloud.google.com/blog/ja/products/databases/cloudsql-read-pools-support-autoscaling/</guid><description>Google Cloud の Cloud SQL が、MySQL および PostgreSQL 向けに読み取りプールの自動スケーリング機能を提供開始しました。
この機能により、読み取り負荷の高いワークロードに対応するため、リードレプリカのプロビジョニングと管理が簡素化され、トラフィックの変動に合わせて自動的にスケールアップ・ダウンするため、運用負荷の軽減とコスト最適化が期待できます。
本機能は、アプリケーションの読み取りスケーラビリティを向上させたいデータベース管理者やインフラエンジニア、SRE、バックエンドエンジニア向けの記事です。</description><pubDate>Wed, 01 Apr 2026 02:10:00 GMT</pubDate></item><item><title>虎の穴通販システムの運用に活用するAI</title><link>https://toranoana-lab.hatenablog.com/entry/2026/03/31/140000</link><guid isPermaLink="true">https://toranoana-lab.hatenablog.com/entry/2026/03/31/140000</guid><description>- 通販システムの運用における「監視対象の多さと判断の難しさ」「手作業によるミス」という2つの悩みを、AIを活用して解決する事例を紹介。
- OracleDBのアラートログ監視や、Slackからの自然言語指示によるサーバー調査用Slackbotの開発について、具体的な仕組みと効果を解説。
- AIのシステム運用への組み込みは、効率化だけでなく、作業者の心理的負担軽減にも繋がり、今後は自動復旧なども視野に入れている。

この技術記事は、以下のような方々を対象としています。
* システム運用担当者
* バックエンドエンジニア
* インフラエンジニア
* アーキテクト</description><pubDate>Tue, 31 Mar 2026 05:00:00 GMT</pubDate></item><item><title>TiDB Cloud vs Azure MySQL — 二週間の性能比較実験記</title><link>https://zenn.dev/aeonpeople/articles/8c7321b273c9e1</link><guid isPermaLink="true">https://zenn.dev/aeonpeople/articles/8c7321b273c9e1</guid><description>TiDB CloudとAzure MySQLの2週間にわたる性能比較実験の結果を報告する記事です。
オンラインとオフラインを横断するイオンのデジタルサービスの基盤であるASPB（AEON Smart Platform Business）における、マイクロサービス基盤の選定を目的としています。
データベースの性能比較に関心のあるエンジニアやアーキテクト向けの記事です。</description><pubDate>Tue, 31 Mar 2026 02:50:42 GMT</pubDate></item><item><title>1時間30分かかっていたデータ取り込み処理をたった5分で終わらせる技術〜ISUCONは役にたつ〜</title><link>https://blog.kinto-technologies.com/posts/2026-03-31-improvement-importing-data-performance/</link><guid isPermaLink="true">https://blog.kinto-technologies.com/posts/2026-03-31-improvement-importing-data-performance/</guid><description>1時間半かかっていたデータ取り込み処理をISUCONで培った知識を活かして5分に短縮した事例

・オンメモリキャッシュ、UPSERT、バルク処理を段階的に適用
・SQL実行回数を250万回から500回まで削減
・インフラエンジニア、バックエンドエンジニア向け</description><pubDate>Tue, 31 Mar 2026 01:00:00 GMT</pubDate></item><item><title>AWS、数秒でデータベース作成可能な新機能をAmazon Aurora PostgreSQLサーバーレスに搭載</title><link>https://www.publickey1.jp/blog/26/awsamazon_aurora_postgresql.html</link><guid isPermaLink="true">https://www.publickey1.jp/blog/26/awsamazon_aurora_postgresql.html</guid><description>AWSがAmazon Aurora PostgreSQLサーバーレスに、数秒でデータベースを作成できる「エクスプレス設定」を正式機能として追加しました。
これにより、従来必要だったVPCやセキュリティ設定などの手間が大幅に削減されます。
データベースの迅速な構築を求めるインフラエンジニア、バックエンドエンジニア、およびデータベース管理者に向けた情報です。</description><pubDate>Mon, 30 Mar 2026 15:50:34 GMT</pubDate></item><item><title>Memorystore for Valkey 9.0 の一般提供を開始: 次世代のキャッシュ保存</title><link>https://cloud.google.com/blog/ja/products/databases/memorystore-for-valkey-9-0-is-now-ga/</link><guid isPermaLink="true">https://cloud.google.com/blog/ja/products/databases/memorystore-for-valkey-9-0-is-now-ga/</guid><description>Google Cloudが次世代キャッシュ保存ソリューション「Memorystore for Valkey 9.0」の一般提供を開始しました。このアップデートでは、パフォーマンスが大幅に向上し、SIMD最適化やパイプラインメモリプリフェッチなどの新機能により、スループット向上とレイテンシ削減を実現しています。また、ハッシュフィールドごとの有効期限設定、地理空間ポリゴン検索、条件付き削除（DELIFEQ）などの新コマンドや、クライアントリストのフィルタリング機能が追加され、開発者の要求に応えています。

この記事は、以下のような読者に向けて書かれています：
* 高パフォーマンスなキャッシュソリューションを求めるバックエンドデベロッパーやアーキテクト
* 低レイテンシと高スループットが求められる金融、メディア、エンターテイメント業界の開発者
* 分散ロックやデータライフサイクル管理の効率化を図りたいエンジニア</description><pubDate>Thu, 26 Mar 2026 03:30:00 GMT</pubDate></item><item><title>データマネジメント戦略Night - 4社のリアルを語る会</title><link>https://speakerdeck.com/kubell_hr/260319-gouda</link><guid isPermaLink="true">https://speakerdeck.com/kubell_hr/260319-gouda</guid><description>2026年3月19日に開催された「データマネジメント戦略Night - 4社のリアルを語る会」の発表資料。
データマネジメントの戦略について、4社の事例を基に語られた内容。
データマネジメントに関心のあるエンジニア、マネージャー、アーキテクト向け。</description><pubDate>Sun, 22 Mar 2026 04:00:00 GMT</pubDate></item><item><title>WITH RECURSIVE 句を含んだ BigQuery view は作らないほうが良い</title><link>https://zenn.dev/mixi/articles/bigquery-do-not-use-with-recursive-in-view</link><guid isPermaLink="true">https://zenn.dev/mixi/articles/bigquery-do-not-use-with-recursive-in-view</guid><description>BigQueryのWITH RECURSIVE句は再帰計算に便利ですが、テーブル関数内では使用できません。
WITH RECURSIVE句を含むVIEWを作成すると、そのVIEWはテーブル関数から参照できなくなり、実質的に利用できなくなります。
この制約を理解し、VIEWの設計に影響を与えないように注意する必要があります。</description><pubDate>Tue, 17 Mar 2026 12:06:30 GMT</pubDate></item><item><title>ベクトル検索エンジンValdの長期運用で見えたパフォーマンス最適化とベストプラクティス</title><link>https://techblog.lycorp.co.jp/ja/20260317c</link><guid isPermaLink="true">https://techblog.lycorp.co.jp/ja/20260317c</guid><description>社内プラットフォームで約4年間運用・開発してきたベクトル検索エンジン「Vald」について、パフォーマンス最適化とベストプラクティスを解説します。
Valdの長期運用経験に基づいた知見を共有する内容です。
バックエンドエンジニア、プラットフォームエンジニア、データベースエンジニア、機械学習エンジニア、インフラエンジニア向けの記事です。</description><pubDate>Tue, 17 Mar 2026 02:00:00 GMT</pubDate></item></channel></rss>