Последният експеримент на Google може да звучи като някой научнофантастичен сериал, но е поредната крачка към развитието на компютърната интелигентност. С помощта на „трениран“ компютър онлайн търсачката прави снимките по-малки отколкото позволява настоящата компресия на JPEG файловете.

Подходът на Google е свързан с „принуждаване“ на собствената си мрежа да научи компресирането на файлове по трудния начин. Изследователи са използвали за пример 6 милиона компресирани снимки от интернет и са ги разделили на 32х32 пикселови парчета.

Неутралната мрежа след това е получила по 100 бита от всяка снимка, които представляват най-слабият елемент от компресията и.

Идеята е, че ако мрежата може да свърши по-добра работа при компресирането на най-лошите елементи, ще може да се справя по-добре при компресиране на всичко.

В доклад се описва процесът чрез използване на математика, за да се демонстрира как мрежата разделя снимките в бинарен код и ги реконструира парче по парче и по  този начин се справя по добре от JPEG компресиите при повечето битрейти. Разбира се малко от нас ще разберат написаното в доклада. Все пак, който има желание, може да го прочете тук.

Проектът е голяма стъпка напред. Винаги е добре да поместиш все по-големите медийни библиотеки в по-малко пространство.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *