Наука, доступность, рабочие места. Итак, ИИ уже меняет наше настоящее

Microsoft, Google, а вскоре и Apple и Meta. Крупнейшие технологические компании теперь посвящают свои конференции разработчиков проектам мирового значения. Различные конференции Builds, I/O, Connects и WWDC, которые когда-то были предназначены только для «разработчиков», стали ключевыми моментами для знакомства с новыми возможностями, которые технологии предлагают нам сегодня, немедленно, а не через несколько лет. Это еще один довод в пользу вышеупомянутых кермесов. Сектор высоких технологий часто рассматривается как перспективный, футуристический сектор, который мы когда-нибудь увидим. Вместо этого в последние несколько лет, и неслучайно после пандемии, все стало гораздо более конкретным: люди, будь то эксперты в этой области или нет, хотят немедленно получить на собственном опыте то, что могут предложить инновации, предоставив все остальное любой книге Филипа К. Дика или потоковому сериалу. И благодаря искусственному интеллекту уже есть несколько интересных вещей.
Конференция Microsoft Build, как и ожидалось, была посвящена Copilot. Discovery — это платформа, цель которой — упростить и ускорить научные исследования с помощью искусственного интеллекта и расширенного управления данными. Система основана на «агентной» структуре, состоящей из нескольких специализированных модулей ИИ, которые взаимодействуют друг с другом и на платформе Azure. Графическая система знаний отображает взаимосвязи между теориями, экспериментами и данными, облегчая путь от интуиции к экспериментальной проверке. Copilot действует как пользовательский интерфейс, координируя операции и интегрируя визуальные функции. Discovery задуман как гибкая экосистема, способная интегрировать внешние инструменты, модели и различные наборы данных, адаптируясь к различным научным областям — от химии до полупроводников. В качестве конкретного примера компания Microsoft привела открытие нового хладагента для центров обработки данных менее чем за десять дней, что является более быстрым достижением по сравнению с традиционными методами, на которые потребовались бы месяцы, а возможно, и годы.
Это развитие проекта Starline (представленного в 2021 году) и было анонсировано на конференции I/O 2025 как платформа 3D-видеосвязи на базе искусственного интеллекта. Цель состоит в том, чтобы превратить видеоконференции в практически голографические и «гипертелеприсутствующие» технологии, выходящие за рамки возможностей предшественников. Beam использует сложную модель объемного видео на базе искусственного интеллекта, возможности Google Cloud и дисплей светового поля. В общей сложности шесть камер снимают изображения с разных ракурсов, а искусственный интеллект объединяет эти видеопотоки для визуализации участников в 3D на дисплее светового поля. Все это происходит со скоростью 60 кадров в секунду и отслеживанием движений головы для обеспечения надлежащего просмотра с любой точки зрения. Первые устройства Google Beam появятся в продаже в конце этого года, но цены пока не объявлены. Для сравнения, компания Logitech разработала систему под названием Project Ghost, которая предлагает воспроизведение 2D-видео в натуральную величину на большом экране, ориентировочная стоимость которой составляет от 15 000 до 20 000 долларов США.
После нескольких слухов Xreal и Google представили Project Aura — прототип умных очков на базе платформы Android XR. Они являются идеальными преемниками Google Glass и оснащены двумя микродисплеями, которые проецируют контент в расширенной реальности с возможностью регулировки непрозрачности линз, чтобы оставаться в контакте с окружающей средой. Прототип включает в себя встроенные камеры, микрофоны и кнопки. Сердцем, конечно же, является Gemini AI, который также сможет выполнять действия локально благодаря чипу Qualcomm, оптимизированному для приложений «расширенной реальности». Xreal позаботится об аппаратной части, как это делает Samsung с Galaxy Watch, а Google разрабатывает операционную систему Wear OS. Более подробная информация, включая дату запуска и цену, ожидается на выставке Augmented World Expo в июне в США.
В преддверии Meta Connect 17 сентября детище Марка Цукерберга анонсировало некоторые обновления для очков Ray-Ban, выпускаемых совместно с EssilorLuxottica. Они будут интегрировать больше функций ИИ, чтобы предоставлять подробные описания окружающей среды слепым и слабовидящим людям (хотя каждый сможет их ощутить). Благодаря камере и помощнику Meta AI очки смогут точно описывать окружение пользователя, как показано в видеоролике, в котором ИИ идентифицирует элементы парка или находит предметы на столе, одновременно указывая направление. Первоначально эта функция будет доступна в США и Канаде, а затем будет распространена и на другие страны. Еще одним важным нововведением является функция «Позвонить волонтеру», которая позволит незрячим или слабовидящим пользователям в режиме реального времени связаться с сетью волонтеров из фонда Be My Eyes, чтобы помочь им в их повседневной деятельности.
ilsole24ore