Компания показала две модели. Первая сохраняет более высокое качество и сжимает текстуры в 9 раз, а вторая несколько жертвует качеством, зато сжимает уже в 18 раз.
Основная идея в этом случае заключается в том, чтобы выйти за рамки стандартного блочного сжатия, обучив нейронную сеть кодировать и декодировать набор текстур одновременно.
Intel говорит, что альфа-версия SDK запланирована на конец этого года, за ней последует бета-версия, а затем и публичный релиз.
Научная команда обсерватории имени Веры Рубин сообщила об открытии более 11 000 новых астероидов благодаря возможностям телескопа Simonyi Survey и программному обеспечению, разработанному в Вашингтонском университете. Новые объекты включают также около 380 транснептуновых объектов (TNO) и 33 ранее неизвестных околоземных объекта (NEO), ни один из которых не представляет угрозы для Земли.
Набор данных также содержит информацию о более чем 80 000 ранее известных астероидах, некоторые из которых были «потеряны» из-за неопределённости их орбит. Все находки подтверждены Центром малых планет Международного астрономического союза.
На модели внутренней части Солнечной системы астероиды, обнаруженные обсерваторией им. Веры Рубин, обозначены бирюзовым цветом. Ранее известные астероиды показаны тёмно-синим. Модель показывает почти 12 700 астероидов, обнаруженных командой обсерватории за полтора года. Источник: NSF–DOE Vera C. Rubin Observatory / NOIRLab / SLAC / AURA / R. Proctor. NASA / GSFC Scientific Visualization Studio. ESA / Gaia / DPAC. M. Zamani / NSF NOIRLab
Обсерватория, стоимостью $800 миллионов, расположена в Чили и начала свою работу в июне прошлого года. Ранее астрономы сообщали об обнаружении более 1 500 астероидов в ходе тестовых наблюдений. «Это только начало, обсерватория готова к работе», — отметил астроном Марио Юрич, руководитель команды по изучению Солнечной системы. Обсерватория имени Веры Рубин обещает изменить представление о Солнечной системе, ускорив процесс открытия объектов с десятилетий до месяцев.
Центральным элементом обсерватории является телескоп Simonyi Survey, оснащённый крупнейшей в мире цифровой камерой, способной генерировать 20 терабайт данных за ночь. Эти данные анализируются научными учреждениями по всему миру, включая Институт DiRAC в Вашингтонском университете.
Программное обеспечение для обнаружения астероидов, разработанное астрономами Ари Хайнце и Джейкобом Курландером, позволило реализовать уникальный подход к наблюдениям. «Мы создали новую архитектуру, а Обсерватория революционизирует наше знание пояса астероидов», — отметил Хайнце.
Ожидается, что в будущем обсерватория поможет идентифицировать около 90 000 новых околоземных объектов, некоторые из которых могут представлять опасность. Раннее обнаружение таких объектов позволит разработать стратегии планетарной защиты.
Среди транснептуновых объектов обнаружены два тела с крайне вытянутыми орбитами — 2025 LS2 и 2025 MX348, которые находятся на расстоянии в 1 000 раз дальше от Солнца, чем Земля. Эти объекты входят в число 30 самых удалённых известных тел своего рода. Обсерватория имени Веря Рубин также, вероятно, способна обнаружить гипотетическую Десятую Планету, если она существует.
Обнаружение транснептуновых объектов стало возможным благодаря алгоритмам, разработанным Мэттью Холманом из Гарвард-Смитсоновского центра астрофизики и Кевином Нейпиром. Эти алгоритмы позволяют компьютеру анализировать миллионы источников и регистрировать удалённые объекты.
Эти открытия — лишь начало десятилетнего обзора Legacy Survey of Space and Time (LSST). Согласно моделям, за это время обсерватория обнаружит миллионы ранее неизвестных астероидов.
Компания Tiny Corp, которая год назад смогла создать Фото X (Tiny Corp)
Компания отмечает, что установка драйвера после одобрения Apple стала крайне простой, так что с ней справится любой пользователь. Можно ли будет каким-то образом доработать драйвер так, чтобы он работал в играх, неясно. Собственно, компания вообще пока не даёт никаких технических подробностей.
Напомним, изначально современные Mac на Apple Silicon не поддерживают дискретные GPU. Самой Apple это не нужно, так как её старшие чипы обладают очень мощными графическими ядрами. Но Tiny Corp каким-то образом удалось создать совместимый драйвер.
Microsoft анонсировала три новые ИИ-модели: MAI-Transcribe-1, MAI-Voice-1 и MAI-Image-2. Эти модели, разработанные полностью внутри компании, направлены на преобразование речи в текст, генерацию голоса и создание изображений. Они уже доступны через платформы Microsoft Foundry и MAI Playground.
MAI-Transcribe-1 — система преобразования речи в текст, которая достигает минимального среднего уровня ошибок слов (Word Error Rate) на тесте FLEURS для 25 языков. Модель превосходит OpenAI Whisper-large-v3 и Google Gemini 3.1 Flash по большинству языков. Она поддерживает форматы MP3, WAV и FLAC и работает в 2,5 раза быстрее предыдущих решений Microsoft.
MAI-Voice-1 — модель, преобразующая текст в речь и способная генерировать 60 секунд естественного звучания за одну секунду. Она поддерживает создание пользовательских голосов на основе нескольких секунд аудио. Стоимость использования составляет $22 за 1 миллион символов.
MAI-Image-2 — обновлённая модель генерации изображений, которая работает в два раза быстрее предыдущей версии. Она уже используется в Bing и PowerPoint. Стоимость составляет $5 за 1 миллион токенов текста и $33 за 1 миллион токенов изображений.
Иллюстрация: Nano Banana
Эти модели стали возможны благодаря пересмотру контракта с OpenAI, который позволил Microsoft самостоятельно разрабатывать модели. Несмотря на это, партнёрство с OpenAI остаётся в силе до 2032 года.
Модели были разработаны небольшими командами: каждая из них насчитывает менее 10 человек.
Компания позиционирует свои модели как доступные и эффективные решения для предприятий. MAI-Transcribe-1 уже тестируется в Microsoft Teams и Copilot, а MAI-Image-2 используется в рекламных кампаниях крупных компаний, таких как WPP.
В будущем Microsoft планирует разработку универсальных языковых моделей, способных конкурировать с ChatGPT. Компания стремится к полной независимости в ИИ, создавая собственные вычислительные кластеры и инфраструктуру для поддержки суперинтеллекта.
Смартфоны Samsung флагманской линейки Galaxy S26 в продаже меньше месяца, но уже сейчас на них начали давать огромные скидки в Европе. Так, немецкая версия Amazon предлагает купить Galaxy S26 Ultra с 512 ГБ памяти за 1185 евро — это на 465 евро меньше рекомендованной розничной стоимости. Дисконт составляет 28%.
Скриншот сайта Amazon Germany
Щедрые скидки действуют и на другие модели линейки. Например, базовый Galaxy S26 с 256 ГБ флеш-памяти можно купить за 800 евро вместо рекомендованной цены 1000 евро. Дисконт — 20%. Galaxy S26 Plus с тем же объемом памяти сейчас предлагается за 950 евро при официальной стоимости 1250 евро. Скидка — в почти четверть стоимости смартфона.
Чем объясняются такие внушительные скидки сейчас, неизвестно. Важно, что продавцом выступает официальный магазин Samsung.
Пользователь форума Reddit под ником Open_Advice_1411 рассказал о необычной находке в комиссионном магазине: ему удалось купить видеокарту ASRock Radeon RX 6950 XT OC Formula всего за 15,5 доллара. Позже он сообщил, что видеокарта запустилась и оказалась полностью работоспособной. Правда, стресс-тесты он еще не проводил.
Особый интерес вызывает сама модель. Речь идет не о стандартной Radeon RX 6950 XT, а о версии OC Formula (OCF) от ASRock — это одна из наиболее редких и топовых модификаций в линейке Radeon RX 6000. Карта получила мощную подсистему питания на 21 фазу, три 8-штырьковх разъема, две BIOS и фирменное охлаждение OC Formula 3X. По данным ASRock, ее boost-частота в режиме Performance BIOS достигает 2495 МГц. И, конечно же, важен объем памяти — тут 16 ГБ.
На фоне обычных цен на бывшие в употреблении видеокарты такая покупка выглядит почти невероятной: даже с учетом возраста Radeon RX 6950 XT остается довольно мощным решением.
У Intel сегодня день точечных премьер: компания представила не только
CPU получил 16 ядер в конфигурации 4 производительных + 8 энергоэффективных + 4 маломощных энергоэффективных, а также vjoye. встроенную графику Intel Arc B390. Turbo-частота составляет 5,0 ГГц (против 5,1 ГГц у Core X9 388H).
Главное отличие новинки — не в производительности, а в позиционировании. Core Ultra X9 378H ориентирован на потребительский рынок и не поддерживает vPro, а также лишен ряда корпоративных функций, включая AMT, SIPP и Remote Platform Erase. По сути, это «переупакованный» Core Ultra X7 368H без поддержки vPro.
Arcee, лаборатория из Сан-Франциско, выпустила Trinity-Large-Thinking — текстовую reasoning-модель с 399 миллиардами параметров. Модель распространяется под лицензией Apache 2.0, что позволяет её свободно использовать и модифицировать как независимым разработчикам, так и крупным компаниям.
Trinity-Large-Thinking создана как альтернатива закрытым моделям, которые доминируют на рынке. Релиз совпал с ростом обеспокоенности предприятий по поводу использования китайских архитектур в критической инфраструктуре. Arcee предлагает разработчикам инструмент, который они могут полностью контролировать.
Arcee — небольшая команда из 30 человек, которая выделяется подходом «инженерия через ограничения». В 2026 году компания вложила $20 миллионов, почти половину своего бюджета, в 33-дневный цикл обучения Trinity-Large. Для этого использовался кластер из 2048 GPU NVIDIA B300 Blackwell, что позволило достичь высокой скорости обучения.
Лицензия Apache 2.0 выделяет Trinity-Large-Thinking среди конкурентов, предоставляя предприятиям возможность полного контроля над моделью. Arcee также выпустила Trinity-Large-TrueBase — контрольную точку с 10 триллионами токенов, которая позволяет полностью адаптировать модель под свои нужды.
Trinity-Large-Thinking уже получила положительные отзывы сообщества. На платформе OpenRouter модель стала самой популярной в США, обработав более 80 миллиардов токенов за день. При стоимости $0.90 за миллион токенов Trinity значительно дешевле конкурентов, таких как Claude Opus 4.6 ($25 за миллион токенов).
Arcee планирует использовать наработки Trinity-Large для обновления своих компактных моделей Mini и Nano, открыв их так же для широкого круга пользователей.
Андрей Карпаты, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот подход решает проблему потери контекста в ИИ-проектах, делая процесс работы более эффективным и прозрачным.
Карпаты описал свою систему как способ решения проблемы «статичности» ИИ, когда контекст работы теряется после завершения сессии. В отличие от традиционных решений, таких как векторные базы данных и Retrieval-Augmented Generation («генерация, дополненная поиском», RAG), его подход делает акцент на простоте и прозрачности. Вместо сложных алгоритмов поиска система Карпаты использует LLM для создания, редактирования и поддержания базы знаний. Исходные материалы, такие как научные статьи, репозитории и веб-контент, сохраняются в формате Markdown. Карпаты использует инструмент Obsidian Web Clipper для преобразования веб-страниц в локальные файлы, включая изображения.
Архитектура системы. Источник: X@himanshu
Хотя система изначально разрабатывалась для личных исследовательских проектов, у неё большой потенциал для корпоративного использования. Компании могут использовать этот подход для создания «корпоративной библии», которая будет автоматически обновляться и синхронизироваться с внутренними данными. Это особенно актуально для организаций с большим объёмом неструктурированных данных, таких как отчёты, логи и внутренние вики.
Карпаты видит дальнейшее развитие своей системы в направлении генерации синтетических данных и дообучения моделей. По мере роста базы знаний она может стать подходящим набором данных для обучения специализированных ИИ-моделей, которые будут интегрировать знания напрямую в свои веса. Его подход уже вызвал интерес в сообществе. Например, Лекс Фридман, известный подкастер и исследователь, использует схожую систему для создания временных баз знаний, которые помогают ему в работе.
Я часто использую систему для генерации динамического HTML (с JavaScript), что позволяет мне сортировать/фильтровать данные и интерактивно работать с визуализациями. Еще одна полезная функция — система генерирует временную, узкоспециализированную мини-базу знаний, которую я затем загружаю в LLM для голосового взаимодействия во время длительной пробежки на 7-10 миль
Лекс Фридман
Другие эксперты отмечают, что метод LLM Knowledge Bases может стать основой для новых продуктов, способных трансформировать управление знаниями как в личных, так и в корпоративных масштабах.
Андрей Карпати, бывший директор по искусственному интеллекту Tesla и сооснователь OpenAI, представил новый подход к управлению знаниями, который может изменить подход к исследовательским проектам. Его метод, названный LLM Knowledge Bases, предлагает использовать большие языковые модели (LLM) для создания и поддержания структурированных баз знаний в формате Markdown (.md). Этот подход решает проблему потери контекста в ИИ-проектах, делая процесс работы более эффективным и прозрачным.
Карпати описал свою систему как способ решения проблемы «статичности» ИИ, когда контекст работы теряется после завершения сессии. В отличие от традиционных решений, таких как векторные базы данных и Retrieval-Augmented Generation («генерация, дополненная поиском», RAG), его подход делает акцент на простоте и прозрачности. Вместо сложных алгоритмов поиска система Карпати использует LLM для создания, редактирования и поддержания базы знаний. Исходные материалы, такие как научные статьи, репозитории и веб-контент, сохраняются в формате Markdown. Карпати использует инструмент Obsidian Web Clipper для преобразования веб-страниц в локальные файлы, включая изображения.
Архитектура системы. Источник: X@himanshu
Хотя система Карпати изначально разрабатывалась для личных исследовательских проектов, у неё большой потенциал для корпоративного использования. Компании могут использовать этот подход для создания «корпоративной библии», которая будет автоматически обновляться и синхронизироваться с внутренними данными. Это особенно актуально для организаций с большим объёмом неструктурированных данных, таких как отчёты, логи и внутренние вики.
Карпати видит дальнейшее развитие своей системы в направлении генерации синтетических данных и дообучения моделей. По мере роста базы знаний она может стать подходящим набором данных для обучения специализированных ИИ-моделей, которые будут интегрировать знания напрямую в свои веса. Его подход уже вызвал интерес в сообществе. Например, Лекс Фридман, известный подкастер и исследователь, использует схожую систему для создания временных баз знаний, которые помогают ему в работе.
Я часто использую систему для генерации динамического HTML (с JavaScript), что позволяет мне сортировать/фильтровать данные и интерактивно работать с визуализациями. Еще одна полезная функция — система генерирует временную, узкоспециализированную мини-базу знаний, которую я затем загружаю в LLM для голосового взаимодействия во время длительной пробежки на 7-10 миль
Лекс Фридман
Другие эксперты отмечают, что метод Карпати может стать основой для новых продуктов, способных трансформировать управление знаниями как в личных, так и в корпоративных масштабах.