Алексей Надежин побывал на презентации двух новых смартфонов Meizu Pro 7 и Meizu Pro 7 Plus и рассказал об этих устройствах в своем блоге.
Первый смартфон с дисплеем 5,2", второй - 5,7". Кнопка mTouch на передней панели - сенсорно-механическая со сканером отпечатка. Нажатие на кнопку - "Домой", касание - "Назад", длительное нажатие гасит экран. Не уверен, что это удобнее, чем традиционные три кнопки.
У обоих смартфонов дисплеи AMOLED, у первого FullHD, у второго QHD.
Главная "фишка" новой модели - второй дисплей, который расположили на задней крышке. Идея такая же, как и в других смартфонах: время, погода, уведомления, управление плеером (дисплей сенсорный). Но вот расположение на задней крышке - ну, не знаю я, по-моему, также не слишком удобно. У LG V20, где второй дисплей - в самом верху лицевой части - это было сделано не в пример удобнее. И у Samsung Galaxy S8 режим "Дисплей всегда включен", когда на выключенном экране появляяется монохромное изображение со временем, датой и процентом заряда аккумулятора - штука очень полезная.
Какая тут еще фишечка? Двойная камера с 13 МП сенсорами и объективами, причем одна камера делает цветной снимок, вторая - черно-белый, а потом эти два снимка программно совмещаются с целью расширения динамического диапазона?
Если я не ошибаюсь, компания Huawei эту технологию впервые представила в смартфоне Honor 6 Plus несколько лет назад и с тех пор они с этой технологией добились больших успехов - двойная камера в Huawei P10 и последнем Honor работает просто отлично! Но там используются программные разработки от Leica.
Что тут получилось у Meizu - не знаю, надо смотреть, но явное эпигонство - налицо.
Алексей пишет "Компании Meizu удалось выпустить смартфон, который точно не похож на iPhone, Samsung и все прочие смартфоны". Ну да, ну да. Внешний вид - самый что ни на есть традиционно айфонный (да и OnePlus 5 выглядит просто один в один). Второй экран - довольно спорный с точки зрения расположения. Двойная камера с черно-белой съемкой - прямое заимствование у Huawei, да и надо смотреть на результат обработки. А так - да, точно не похож, ну просто совершенно.
Я давно не анализировал то, как формируется трафик на моих площадках. К примеру, поисковые запросы за время, которое на сайте и в жж стоят счётчики Яндекс-метрики, выглядят так. Меня особенно самый популярный запрос в жж порадовал. Интересно, кто же моя целевая аудитория? ;)
udikov.ru:
1. казань 2. причины катастрофы боинга в казани 3. ретимно фото города 4. 3g модем ростелеком отзывы 5. амудара крит фото 6. булгар 7. йошкар ола фото города 8. "у друзей на грибоедова" 9. divar переводчик 10. ford cuga 2013 тест драйв
жж:
1. относится ли чайник к посуде 2. развязки ттк москва схема 3. bqs смартфоны чьи 4. hp deskjet ink advantage 2025hc или epson l110 5. lenovo vibe fest до какого времени 6. privat label что это 7. биопокров гель отзывы 8. булгар картинки 9. бульварное и садовое кольцо это 10. в ессентуках снег
Не удержался и добавил следующий запрос: 11. газета щамраксен
Яндекс, за что ты так со мной? )))))))))))))))))))
Зы: Я отследил также самые популярные поисковые запросы за последний год. Из коммерческих материалов лидирует фотообзор санатория «Шахтёр» (AMAKS Hotels&Resorts) - 1645 уников на сайте и 1927 в жж. И это фактически только поисковый трафик. Так как материал вышел ещё в апреле 2016-го года. На данный момент он просмотрен почти 7000 раз.
Перевести звуковую запись в реалистичное видео говорящего человека — та еще задача. Обычно результат легко отличить от оригинала, да и выглядит такое видео несколько жутко, как будто настоящего человека подменили куклой. Прямо как в «Солярисе» Станислава Лема. Тем не менее, исследователи из Университета штата Вашингтон серьезно продвинулись в этом деле и создали вполне реалистичное видео выступления Барака Обамы на основе его реальных аудиозаписей.
Ученые использовали 14 часов еженедельных видеороликов Обамы, которые он записывал, когда был президентом и загрузили их в нейронные сети для обучения. После машинного обучения, программа на основе искусственного интеллекта создала изображения положений рта для каждой фразы, которые потом наложили на другое видео Обамы. Чтобы сделать изображение более реалистичным, система исправляла положение головы, а также внешний вид челюстей.
Эта статья - несколько корявый пересказ заметки из издания Engaget, а в оригинале четко говорится, что задача решалась с помощью нейросети, причем методом последовательных итераций с целью получения видео, наиболее приближенного к оригиналу.
В ролике хорошо видно, как изменялось видео в процессе обработки.
Интересная история, конечно. Теперь и "неопровержимые доказательства" того, что где-то когда-то что-то говорил некий деятель таковыми перестанут быть, потому что "а это все подделано с помощью нейросети". Впрочем, с другой стороны, ту же нейросеть можно обучить распознавать подобные подделки, почему нет?
Я увидел ЭТО в ленте Facebook на ночь. Теперь мне одному не заснуть, что ли? Давайте и вы не заснете. Не благодарите. Пусть вам снятся светлые сны! Потом расскажете.
А Тиля вся эта шелупонь так и не оставляет. Когда же за ним прилетят вертолеты со спецназом?!! Прям волнуюсь.
P.S. Тиль! Что они с тобой сделали? Они тебя пытали, что ли?
Upd: А вот тут как-то симпатишнее и аутентишнее.
P.S. А где Депардье, волнуется народ, где вообще Депардье?