В новой версии операционной системы iOS 26 компания Apple улучшила встроенную функцию «Визуальный поиск». Эта технология использует элементы машинного обучения и распознавания изображений, чтобы определять объекты на фото или видео прямо на устройстве, сообщает bitbetnews.com.
Система может анализировать растения, животных, достопримечательности, текст и другие элементы, отображая информацию без подключения к сторонним сервисам. Функция работает локально, поэтому данные пользователей остаются конфиденциальными. Благодаря обновлению алгоритмов, поиск стал быстрее и точнее, а его возможности — шире, чем в предыдущих версиях iOS.
Как включить «Визуальный поиск» на iPhone
Чтобы активировать функцию, откройте приложение «Фото» и выберите любое изображение. В нижней части экрана появится значок в виде звёздочки или лупы — именно он отвечает за «Визуальный поиск». Если нажать на него, система начнет анализировать содержимое изображения. После короткой обработки появится всплывающее окно с информацией о распознанном объекте. Например, если на фото изображено животное, iPhone предложит возможные породы или виды. Для корректной работы функции устройство должно быть подключено к интернету хотя бы один раз для загрузки баз данных. Затем поиск может работать и офлайн, используя локальные модели.
Распознавание текста и перевод в режиме реального времени
Одним из ключевых обновлений в iOS 26 стало улучшение распознавания текста на изображениях. Теперь «Визуальный поиск» способен выделять текст даже на сложных фонах и фотографиях с низкой контрастностью. Пользователь может выделить слова, скопировать их, перевести или выполнить поиск по ним. Например, если сфотографировать меню на иностранном языке, система предложит мгновенный перевод. Эта функция особенно полезна во время путешествий и работы с документами. Кроме того, можно использовать встроенный переводчик для мгновенного понимания текста без необходимости устанавливать дополнительные приложения.
Распознавание объектов и живых существ
Функция «Визуальный поиск» теперь способна определять не только растения и животных, но и предметы интерьера, одежду, бренды и даже блюда. При нажатии на соответствующую иконку пользователь получает описание объекта и возможные ссылки на похожие элементы в каталогах Apple или приложениях. Например, сфотографировав цветок, можно узнать его вид и рекомендации по уходу. Если на изображении человек, система может определить тип активности или контекст сцены. Это делает iPhone не просто камерой, а инструментом для получения знаний и подсказок в повседневной жизни.
Как использовать визуальный поиск в Safari и других приложениях
В iOS 26 «Визуальный поиск» интегрирован не только в «Фото», но и в браузер Safari, а также в приложения «Сообщения» и «Файлы». Пользователь может выделить изображение или элемент на странице и выбрать пункт «Найти по изображению». После этого система автоматически предложит возможные результаты поиска и краткую справку. В Safari также появилась возможность искать похожие товары по картинке, что удобно при онлайн-шопинге. Благодаря интеграции с Apple Intelligence, результаты поиска стали персонализированными и адаптируются под интересы пользователя, повышая точность распознавания.
Советы для улучшения работы функции
Чтобы «Визуальный поиск» работал максимально точно, рекомендуется использовать фотографии с хорошим освещением и четкими объектами. Избегайте снимков с размытыми контурами и сильным фоном — это может снизить точность анализа. Также важно держать устройство обновленным: Apple регулярно улучшает работу нейросетей через обновления iOS. Если функция не активируется, проверьте настройки конфиденциальности и убедитесь, что включен доступ к интернету. После правильной настройки «Визуальный поиск» становится мощным инструментом для распознавания и изучения окружающего мира, способным заменить целые приложения по идентификации объектов.
Ранее мы сообщали, почему Apple может пропустить iPhone 19 и сразу представить юбилейный iPhone 20.
