23.07.2025 Экспертиза, Искусственный интеллектКому-то может не нравиться термин «большие данные» (Big Data), но он сохраняет свою актуальность. Управлять огромными объемами разнообразных, быстро перемещающихся и постоянно меняющихся данных всегда непросто, поэтому организации всех мастей тратят так много времени и усилий на создание и внедрение технологий, которые могут сделать управление данными хотя бы немного менее болезненным. Портал BigDATAwire приводит обзор связанных с большими данными технологий, на которые стоит обратить внимание во второй половине нынешнего года. Первые шесть месяцев 2025 г. на фоне барабанного боя о все более близких прорывах в области искусственного интеллекта продемонстрировали жизненную важность управления большими данными. Вот 10 лучших технологий работы с большими данными, за которыми стоит следить во втором полугодии: 1. Apache Iceberg и OTF Динамика развития Apache Iceberg продолжает расти после прорывного 2024 г., когда открытый формат таблиц (OTF) стал стандартом де-факто. Организации хотят хранить свои большие данные в объектных хранилищах, то есть в озерах-хранилищах данных (data lakehouses), но не хотят отказываться от качества и контроля, к которым они привыкли в менее масштабируемых реляционных базах данных. Iceberg, по сути, позволяет им получить пирог с большими данными и съесть его тоже. Как раз когда казалось, что Iceberg выбил Apache Hudi и Delta Lake из борьбы за доминирование в формате таблиц, на арену вышел еще один конкурент: DuckLake. Люди из DuckDB выпустили DuckLake ...
читать далее.