Глубокий рерайтинг: Поверхностный и глубокий рерайтинг — есть ли разница?

Примеры простого и глубокого рерайтинга – Блогопрактика



Игорь Козлов |

29.05.2016

| 2 комментария

Итак, рерайтинг – это видоизменение существующего текста без изменения его смысла. В жизни мы, сами того не замечая, часто используем его приемы, например, в разговорной речи.

Самый простой пример рерайтинга это… приветствия! Давайте, потренируемся и видоизменим слово: Здравствуйте!

Вместо этой фразы вы можете сказать: «Привет, добрый день, салют, как дела, день добрый, приветствую, как поживаешь, доброго времени суток».

По сути, каждый раз, когда мы используем синонимы или другие обороты речи, чтобы усилить мысль, расширить её, приукрасить или показать с другой стороны – мы занимаемся рерайтингом, только в устной форме.

Существует 2 вида рерайтинга: поверхностный и глубокий

Что такое поверхностный рерайтинг?

Это поверхностное, небольшое изменение текста. Иногда его бывает достаточно для того, чтобы создать уникальный текст.

Вы просто поменяли слова местами, вместо „добрый день” сказал „день добрый” и этого уже достаточно, чтобы поисковики посчитали ваш текст уникальным.

В такой текст, вы не привносите никакого своего смысла. Вы изменяете текст за счет:

  • синонимов,
  • добавления слов,
  • убирания лишних,
  • перестановки слов местами,
  • перестановка частей речи.

Более подробно об этом и на примерах я рассказываю и показываю в своей книге «Превращаем буквы в деньги». Но для примера сравните:

Оригинал. Изучив рерайтинг, вы сможете зарабатывать деньги.

Простой рерайт: Вы сможете зарабатывать деньги, когда изучите рерайтинг.

В данном случае нет глубокий изменений текста. Есть перестановка частей предложения. Тем не менее для поисковых машин такой перестановки будет достаточно, чтобы считать текст уникальным.

Несколько ранее я уже писал, когда применяется поверхностный рерайтинг:

  • когда вы плохо владеет темой
  • когда тема специфическая, например медицинская, исторические, научные статьи.

Что такое глубокий рерайтинг?

Это более глубокая работа с текстом. Обычно делается после прочтения 2-3х тематических статей, понимания смысла их и генерирования на их основе совершенно нового текста.

В таком случае, в текст привносятся другие смысловые оттенки, хотя основной смысл остается прежним. Например:

Исходник: Существует парадигма, что фриланс – это удел молодежи.

Глубокий рерайт: Если кто думает, что фриланс это работа только для молодежи, тот глубоко ошибается.

В данном случае мы не видим замены синонимами. Здесь другая подача материала. В первом случае – констатация факта, дескать, существует парадигма. В другом — предположение, «если кто думает». Когда вы делаете глубокий рерайтинг, вы творчески работаете с текстом. Например:

Исходник: «Как правило, свой первый сайт человек делает необычайно ярким. Используя при этом множество контрастирующих между собой тонов. На одной странице могут уживаться, как теплые тона, так и холодные. Текст при этом изобилует множеством красок. Смотришь, не сайт, а калейдоскоп».

Глубокий рерайт: «Когда на сайте одновременно применяются контрастирующие между собою цветовые гаммы, такой сайт напоминает мне калейдоскоп. Новичку кажется, что чем разнообразнее цвета, тем лучше выглядит сайт, но на самом деле такой подход ошибочный».

Сравните 2 текста. Смысл один и тот же. Новичок ошибается при создании своего первого сайта, применяя контрастные тона. Однако подача информации разная.

Чтобы научиться делать глубокий рерайт, нужно ловить смысл предложения, отрывка и текста в целом. Тем не менее, такие приемы поверхностного рерайтинга, как синонимы, добавления новых слов, перестановка, все равно используются и при глубоком рерайтинге.

Вопросы к статье:

  1. В чем разница между поверхностным и глубоким рерайтом?
  2. Когда используется поверхностный рерайтинг?
  3. Найдите в Интернете абзац текста из 2-3 предложений и сделайте рерайтинг.

Автор: Игорь Козлов
Чистый звук в мире инфобизнеса


Заработок — это продажи!

Психология продаж в 7 подкастах! Уберите свой страх и внутреннее сопротивление

Глубокий рерайт — что это и как делать?

Каждый рерайтер хотя бы раз в жизни сталкивался с вопросами, касающимися глубокого рерайтинга статей. Что это такое? Чем вдумчивый пересказ отличается от легкого рерайта? Зачем он нужен?

Глубокий рерайтинг – что это? И как выполнять?

В статье мы рассмотрим такие вопросы: Какая уникальность обычно у пересказа текста, сколько времени уходит на такой рерайт? Намного ли дороже стоит глубокий рерайтинг статей, что из себя представляет рерайт этого типа, где может пригодиться он? Сколько заказов в интернете на него и как научиться делать качественный рерайт самому? Сколько стоит такой рерайт текста, как написать статью, чтобы она читалась даже лучше, чем исходник? Сколько должно быть источников у такого рерайта и когда работу над текстом можно считать завершенной? О том, как сделать написание статьи простым, но интересным занятием, мы поговорим в нашей статье. Вы научитесь писать статьи методом полной проработки текста и узнаете, как рерайт может позволить сделать статью лучше, чем исходник. Для вас не будет секретом, что означает глубокий рерайтинг статей и какие правила используются при изложении текста. Проще говоря, вопрос “что такое глубокий рерайт и с чем его едят” или “Как измерить глубину рерайтинга” – больше не будут вопросами. Потомукак вы узнаете о нем все, вплоть до его отличий от копирайтинга. Научимся измерять уникальность получившегося текста и узнаем, как делать рерайтинг глубоко. Поймем на примерах, чем он отличается от пересказа или изложения и как вообще можно облегчить процесс написания текста. Недолго думая, выберем, сколько источников использовать и узнаем правила, как не навредить статье при изложении. Раскроем секрет, где используется рерайтинг более вдумчивый и почему он считается сложнее поверхностного. Раскроем технику, как делается такой рерайтинг и как выполнить рерайт проще и быстрее обычного. Таким образом, нас не будут волновать вопросы типа – что подразумевают слова “глубокий” и как рерайт может быть таким. Мы узнаем не только почему глубокий пересказ так называется, но и как его делать, если он занимает много времени. Поймите, что умение писать грамотно вдумчивый пересказ – ключ к тому, чтобы заказчик остался доволен. Мы разберем ошибки, которые чаще всего встречаются при этом и узнаем, как сделать текст красиво, чтобы он запомнился и стал билетом в белый список заказчика. О том, какой рерайт называют глубоким и почему, пойдет речь в этой статье. Более того, мы узнаем, как превратить работу в высокодоходный бизнес, какие деньги можно заработать на нем. Ведь главное – писать красиво, чтобы статью хотелось читать и перечитывать. Но есть ли способ сделать всю работу автоматически, и какие существуют программы для глубокого рерайтинга онлайн? Может ли написание статей стать максимально прибыльным при этом виде текстов? О том, какая разница между ним и копирайтом, и какой рерайтинг считается глубоким, мы поговорим далее. А еще о том, что такое глубокий рерайтинг, пойдет речь в этой статье.

Что такое глубокий рерайт?

Глубокий рерайт – это переписывание статьи своими словами с чистого листа.

Глубокий рерайт означает закрыть исходник и написать все с нуля.

Глубокий рерайт подразумевает вдумчивое чтение и полную переработку текста в уме и на бумаге.

Глубокий рерайт не может сделать ни одна программа, с этим справится только человек.

Глубокий рерайт – это сначала чтение, а после написание текста с нуля.

Глубокий рерайтинг – это изложение.

Глубокий рерайт ценится так же, как поверхностный. Но с каждым днем преимущество встает на его сторону. Причины – постоянный рост интернета за счет легкого рерайта, появление новых алгоритмов проверки на уникальность (они распознают легкий рерайт как копипаст).

Глубокий рерайтинг помогает создавать тексты с высокой уникальностью. Отличить его от копирайта становится сложно. Не зная источника, мы не сможем даже утверждать, что это не копирайт. Ни одна программа проверки уникальности не покажет маленький процент уникальности, потому что глубокий рерайт сравним с копирайтом. Если источников больше одного, то текст и впрямь становится копирайтом. Каждый копирайтер когда-то проходил путь от рерайтинга поверхностного до глубокого.

Как делать глубокий рерайтинг?

Глубокий рерайт можно выполнять, держа перед собой два окна: текст исходника в одном окне (браузер) и чистое пространство для написания рерайта в другом (блокнот).

Глубокий рерайт можно делать со скоростью до 50 знаков в минуту. В отличие от поверхностного рерайта, этот требует гораздо больше усилий и времени. Считается, что нельзя одновременно заниматься другими делами с глубоким рерайтом. Этот вдумчивый процесс занимает сознание. Это не подстановка синонимов, не сквозное изменение текста. Это рождение нового текста, в котором каждый знак рожден осознанными стараниями.

Глубокий рерайтинг – это параллельное чтение и написание. Удобнее держать перед глазами исходник. Сначала все читаем, потом начинаем писать. Начинаем с первого предложения (или двух). Читаем, думаем как проще это написать (или как начать с другого конца), пишем начало. Затем пишем продолжение, выхватывая глазами из текста отдельные предложения. Для примера можно взять описание сериалов. Как правило, описания короткие (порой даже в одно предложение). Поэтому я ищу несколько таких описаний. Затем начинаю делать глубокий рерайт. Читаю самое длинное из описаний. Беру первый абзац и пишу его совершенно другими предложениями. Нередко количество предложений меняется, а также последовательность. Действительно, то, что есть в одном предложении, можно перенести в другое. Любые подробности, уточнения и т.п. вообще можно оформить как отдельное предложение. Не повредит тексту и такой прием, как сокращение. Особенно часто это используется, когда исходник нам великоват. Мы просто читаем вскользь, стараясь выхватить главное. И зафиксировать это в своей статье. Все вышеупомянутое делаем для каждого абзаца, и получается глубокий рерайтинг статьи.

Глубокий рерайтинг: выводы

Надеюсь, Вы удовлетворены моим ответом на вопрос “Что такое глубокий рерайтинг?”, и Вам не придется искать еще какие-либо определения. Весь курс обучения глубокому рерайту можно разделить на несколько частей. Самый главный из уроков по рерайтингу – понять глубокий рерайтинг на конкретных примерах. И тем самым узнать о его отличиях от техники сверхскоростного рерайтинга. Вопрос о глубоком рерайте тесно связан с проверкой на уникальность сервисом текст ру – это одна из программ проверки текста на уникальность, которая не предъявляет претензий к глубокому рерайту, зато оценку быстрому рерайту всегда ставит ниже 50%. О том, как сделать статью глубоким рерайтом, чтобы она прошла тест на текст ру, я писал в отдельной статье. И хотя программ по написанию глубокого рерайта нет, есть синонимайзер онлайн, который делает рерайт поверхностный.

(Visited 30 times, 1 visits today)

Переписывание глубокой генеративной модели


2 минуты
Превью видео

ArXiv
Препринт

ECCV 2020
Оральный

Презентация
Слайды

Исходный код
GitHub

Демонстрационный блокнот Colab

Можно ли переписать правила в глубокой сети?

Глубокое обучение сети — это процедура слепой оптимизации, при которой
программисты определяют цели, но не решения, которые появляются.
В этой статье мы спрашиваем, можно ли создавать глубокие сети другим способом.
Можно ли напрямую переписать правила в сети ?

Переписать правила в
современный StyleGAN v2
генеративная модель.
Переписаны правила, регулирующие водяные знаки, людей и башни.
непосредственно пользователем, используя наш метод.

Зачем переписывать модель?

Есть две причины, по которым следует напрямую переписать глубокую сеть:

  1. Чтобы получить представление о том, как глубокая сеть
    систематизирует свои знания .
  2. Чтобы творческие пользователи могли быстро создавать новые модели
    для которых есть нет существующего набора данных .

Переписывание модели предусматривает способ построения глубоких сетей в соответствии с
к намерениям пользователя. Вместо того, чтобы ограничивать сети имитацией данных
которые у нас уже есть, переписывание позволяет глубоким сетям моделировать мир
это следует новым правилам, которые пользователь хочет иметь .

Что такое переписывание модели?

Переписывание модели позволяет человеку редактировать внутренние правила глубокого
сети напрямую вместо обучения на большом наборе данных.

Разница между обучением и переписыванием сродни
к разнице между естественным отбором и генной инженерией.
В то время как обучение позволяет эффективно оптимизировать глобальную цель,
он не допускает прямой спецификации внутренних механизмов.
Напротив, переписывание позволяет человеку напрямую выбирать внутреннюю
правила, которые они хотят включить, даже если этот выбор не случается
соответствовать существующему набору данных или оптимизировать глобальную цель.

Переписать модель сложно, потому что для ее эффективного выполнения требуется
пользователю развить каузально правильное понимание структуры,
поведение и назначение внутренних параметров сети.
До сих пор было неизвестно, является ли прямая переписывание модели
разумное предложение.

Наша статья показывает, что переписывание модели возможно.

Видео

Это 10-минутное выступление демонстрирует пользовательский интерфейс и дает
обзор математических идей.

Файлы видео в формате mp4 можно загрузить напрямую:

  • Короткий 2-минутный превью видео
  • 10-минутный доклад ECCV 2020

Связь с ассоциативной памятью

Наш метод основан на гипотезе о том, что веса генератора действуют
как оптимальная линейная ассоциативная память (OLAM).

ОЛАМ классический однослойный
структура нейронных данных для запоминания ассоциаций, описанная
Теуво Кохонен и
Джеймс А. Андерсон (независимо) в 1970-х годах.
В нашем случае мы предполагаем, что в рамках крупной современной многослойной сверточной
сети, каждый отдельный уровень играет роль OLAM, в котором хранится набор
правил, которые связывают ключи, обозначающие значимый контекст, со значениями,
которые определяют выпуск.

Гипотеза оптимальности подразумевает, что индивидуум
запомненное правило хранится в гирях в слоте, соответствующем
конкретное подпространство обновлений первого ранга, определяемое фиксированным глобальным ключом
статистика и контекст (ключ) изменяемого правила, но не
ценить.

Другими словами, одно правило соответствует строке памяти, которая
можно свободно переписывать.

Поэтому, чтобы изменить правило, мы сначала определяем направление подпространства
d , соответствующий слоту памяти одного конкретного правила, то мы
внесите изменения в этом направлении, чтобы добиться желаемого изменения. Поскольку
направление обновления сводит к минимуму взаимодействие с другими правилами, одно правило может
резко изменился, чтобы соответствовать любой цели, которую пользователь хочет указать,
при этом остальная часть поведения модели остается практически неизменной.

Обоснование обсуждается далее в разговоре,
и все подробности описаны в статье.

Пример результатов

Результаты ниже показывают изменения одного правила в StyleGANv2. В каждом случае,
четыре примера, выбранные пользователем (в центре верхней строки), устанавливают контекст
для начала правила переписаны, а примеры «копировать и вставить» (слева и справа от
верхний ряд) указывают, как пользователь хочет изменить модель.

В приведенной ниже сетке показаны пары выходов: для каждой пары первым является выход
оригинальный немодифицированный StyleGANv2. Второй — это результат модифицированного
StyleGANv2, применяя намерение пользователя с помощью нашего метода.


Первое: изменить правило, определяющее детские брови, чтобы они выглядели как густые усы.


Изменение правила для заостренных вершин башен, чтобы превратить их в деревья.


Изменение правила для макушек голов лошадей, чтобы надевать на лошадей шапки.


Изменение правила рисования хмурого взгляда на правило рисования улыбки.


Удаление главного окна в здании путем изменения правила рисования пустой стены.

Как цитировать

@inproceedings{bau2020rewriting,
 title={Переписывание глубокой генеративной модели},
 author={Бау, Дэвид и Лю, Стивен и Ван, Тунчжоу и Чжу,
 Джун-Ян и Торральба, Антонио},
 booktitle={Материалы Европейской конференции по компьютерному зрению (ECCV)},
 год = {2020}
}
 

Переписывание глубокой генеративной модели

  1. Аберман, К., Ляо, Дж., Ши, М., Лищински, Д., Чен, Б., Коэн-Ор, Д.: Нейронные лучшие друзья: редкий крест — доменная переписка. АКМ ТОГ 37 (4), 69 (2018)

    CrossRef

    Google Scholar

  2. An, X., Pellacini, F.: AppProp: распространение редактирования внешнего вида для всех пар. ACM TOG 27 (3), 40 (2008)

    CrossRef

    Google Scholar

  3. «>

    Андерсон, Дж. А.: Простая нейронная сеть, генерирующая интерактивную память. Мат. Бионауч. 14 (3–4), 197–220 (1972)

    CrossRef

    Google Scholar

  4. Андрыхович М. и др.: Обучение обучению с помощью градиентного спуска с помощью градиентного спуска. В: NeurIPS, стр. 3981–3989 (2016)

    Google Scholar

  5. Барнс, К., Шехтман, Э., Финкельштейн, А., Голдман, Д.Б.: PatchMatch: алгоритм рандомизированного соответствия для структурного редактирования изображений. ACM TOG 28 (3), 24 (2009)

    CrossRef

    Google Scholar

  6. Бау, Д. и др.: Семантическая обработка фотографий с предварительным генеративным изображением. ACM TOG 38 (4), 1–11 (2019)

    CrossRef

    Google Scholar

  7. «>

    Бау Д. и др.: Рассечение Гана: визуализация и понимание генеративно-состязательных сетей. В: ICLR (2019)

    Google Scholar

  8. Бенжио С., Бенжио Ю., Клотье Дж., Гексей Дж.: Об оптимизации правила синаптического обучения. В: Оптимальность в искусственных и биологических нейронных сетях, стр. 6–8. Техасский университет (1992)

    Google Scholar

  9. Бусмалис, К., Зильберман, Н., Дохан, Д., Эрхан, Д., Кришнан, Д.: Неконтролируемая адаптация домена на уровне пикселей с генеративными состязательными сетями. В: ЦВПР (2017)

    Google Scholar

  10. Браун, Т.Б., и др.: Языковые модели — это учащиеся с небольшим количеством попыток. Препринт arXiv arXiv:2005.14165 (2020)

  11. Берт П., Адельсон Э.: Пирамида Лапласа как компактный код изображения. IEEE транс. коммун. 31 (4), 532–540 (1983)

    CrossRef

    Google Scholar

  12. Чан, К., Гиносар, С., Чжоу, Т., Эфрос, А.А.: Теперь все танцуют. В: ICCV (2019)

    Google Scholar

  13. Чен, X., Цзоу, Д., Ли, Дж., Цао, X., Чжао, Q., Чжан, Х.: Изучение разреженного словаря для распространения редактирования изображений с высоким разрешением. В: ЦВПР (2014)

    Google Scholar

  14. Чен, X., Цзоу, Д., Чжао, Q., Тан, П.: Распространение редактирования с сохранением коллектора. АКМ ТОГ 31 (6), 1–7 (2012)

    Google Scholar

  15. Кон, Д., Атлас, Л., Ладнер, Р.: Улучшение обобщения с помощью активного обучения. Мах. Учиться. 15 (2), 201–221 (1994)

    Google Scholar

  16. «>

    Донахью Дж. и др.: DeCAF: функция глубокой сверточной активации для общего визуального распознавания. В: ICML (2014)

    Google Scholar

  17. Досовицкий А., Брокс Т.: Создание изображений с метриками сходства восприятия на основе глубоких сетей. В: Нейрипс (2016)

    Google Scholar

  18. Dy, J.G., Brodley, CE: Визуализация и интерактивный выбор функций для неконтролируемых данных. В: SIGKDD, стр. 360–364 (2000)

    .
    Google Scholar

  19. Эфрос, А.А., Фриман, В.Т.: Выстегивание изображений для синтеза и переноса текстуры. В: СИГГРАФ. АКМ (2001)

    Google Scholar

  20. Эндо Ю., Иидзука С., Канамори Ю., Митани Дж.: DeepProp: извлечение глубоких признаков из одного изображения для распространения редактирования. вычисл. График Форум 35 (2), 189–201 (2016)

    CrossRef

    Google Scholar

  21. Фейлс, Дж. А., Олсен-младший, Д. Р.: Интерактивное машинное обучение. В: ACM IUI, стр. 39–45 (2003)

    .
    Google Scholar

  22. Финн, К., Аббил, П., Левин, С.: Независимое от модели метаобучение для быстрой адаптации глубоких сетей. В: ICML, стр. 1126–1135 (2017). JMLR.org

  23. Фрид, О. и др.: Текстовое редактирование видео с говорящей головой. ACM TOG 38 (4), 1–14 (2019)

    CrossRef

    Google Scholar

  24. Гэтис, Л.А., Экер, А.С., Бетге, М.: Передача стиля изображения с использованием сверточных нейронных сетей. В: ЦВПР (2016)

    Google Scholar

  25. Гудфеллоу И. и др.: Генеративные состязательные сети. В: Нейрипс (2014)

    Google Scholar

  26. Гуо, Д.: Координация вычислительных и визуальных подходов для интерактивного выбора признаков и многомерной кластеризации. Инф. Вис. 2 (4), 232–246 (2003)

    CrossRef

    Google Scholar

  27. Hasinoff, S.W., Jóźwiak, M., Durand, F., Freeman, W.T.: Редактирование личных фотоколлекций с помощью поиска и замены. В: Международная конференция IEEE по вычислительной фотографии (ICCP), 2010 г., стр. 1–8. IEEE (2010)

    Google Scholar

  28. Герцманн, А., Джейкобс, К.Э., Оливер, Н., Курлесс, Б., Салезин, Д.Х.: Аналогии изображений. В: SIGGRAPH (2001)

    Google Scholar

  29. Хойзел, М., Рамзауэр, Х. , Унтертинер, Т., Несслер, Б., Хохрайтер, С.: GAN, обученные с помощью правила обновления в двух временных масштабах, сходятся к локальному равновесию Нэша. В: Нейрипс (2017)

    Google Scholar

  30. Хинтон, Г.Э., Осиндеро, С., Тех, Ю.В.: Алгоритм быстрого обучения для сетей глубокого убеждения. Нейронные вычисления. 18 , 1527–1554 (2006)

    Перекрёстная ссылка
    MathSciNet

    Google Scholar

  31. Хуанг, X., Лю, М.-Ю., Белонги, С., Каутц, Дж.: Мультимодальный неконтролируемый перевод изображения в изображение. В: Феррари, В., Хеберт, М., Сминчисеску, К., Вайс, Ю. (ред.) ECCV 2018. LNCS, vol. 11207, стр. 179–196. Спрингер, Чам (2018). https://doi.org/10.1007/978-3-030-01219-9_11

    CrossRef

    Google Scholar

  32. Ху, М., Чжан, Р., Чжу, Дж. Ю., Пэрис, С. , Герцманн, А.: Преобразование и проецирование изображений в генеративные сети с классовыми условиями. В: ECCV (2020)

    Google Scholar

  33. Иидзука С., Симо-Серра Э., Исикава Х.: Да будет цвет!: Совместное сквозное изучение глобальных и локальных априорных изображений для автоматической раскраски изображений с одновременной классификацией. ACM TOG 35 (4), 1–11 (2016)

    CrossRef

    Google Scholar

  34. Изола, П., Чжу, Дж.Ю., Чжоу, Т., Эфрос, А.А.: Преобразование изображения в изображение с условными состязательными сетями. В: ЦВПР (2017)

    Google Scholar

  35. Цзян Б., Кэнни Дж.: Интерактивное машинное обучение с помощью набора инструментов с ускорением на графическом процессоре. В: ACM IUI, стр. 535–546 (2017)

    .
    Google Scholar

  36. «>

    Джонсон, Дж., Алахи, А., Фей-Фей, Л.: Потери восприятия для передачи в режиме реального времени и сверхвысокого разрешения. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9906, стр. 694–711. Спрингер, Чам (2016). https://doi.org/10.1007/978-3-319-46475-6_43

    CrossRef

    Google Scholar

  37. Каррас, Т.: набор данных FFHQ (2019 г.). https://github.com/NVlabs/ffhq-dataset

  38. Каррас, Т., Айла, Т., Лайне, С., Лехтинен, Дж.: Прогрессивный рост GAN для улучшения качества, стабильности и разнообразия. В: ICLR (2018)

    Google Scholar

  39. Каррас, Т., Лайне, С., Айла, Т.: Архитектура генератора на основе стилей для генеративно-состязательных сетей. В: ЦВПР (2019)

    Google Scholar

  40. Каррас Т. , Лайне С., Айттала М., Хеллстен Дж., Лехтинен Дж., Айла Т.: Анализ и улучшение качества изображения в styleGAN. В: ЦВПР (2020)

    Google Scholar

  41. Кингма, Д., Ба, Дж.: Адам: метод стохастической оптимизации. В: ICLR (2015)

    Google Scholar

  42. Кингма, Д.П., Веллинг, М.: Автокодирование вариационного Байеса. В: ICLR (2014)

    Google Scholar

  43. Кохонен, Т.: Память корреляционной матрицы. IEEE транс. вычисл. 100 (4), 353–359 (1972)

    CrossRef

    Google Scholar

  44. Кохонен, Т.: Ассоциативная память: теоретико-системный подход, том. 17. Спрингер, Гейдельберг (2012). https://doi.org/10.1007/978-3-642-96384-1

    МАТЕМАТИКА

    Google Scholar

  45. «>

    Кохонен Т., Руохонен М.: Представление ассоциированных данных с помощью матричных операторов. IEEE транс. вычисл. 100 (7), 701–702 (1973)

    CrossRef

    Google Scholar

  46. Кокиопулу, Э., Чен, Дж., Саад, Ю.: Оптимизация трасс и собственные проблемы в методах уменьшения размерности. Число. Приложение линейной алгебры. 18 (3), 565–602 (2011)

    CrossRef
    MathSciNet

    Google Scholar

  47. Краузе, Дж., Перер, А., Бертини, Э.: INFUSE: интерактивный выбор функций для прогнозного моделирования многомерных данных. IEEE транс. Вис. вычисл. График 20 (12), 1614–1623 (2014)

    CrossRef

    Google Scholar

  48. Лейк Б.М., Салахутдинов Р., Тененбаум Дж.Б.: Концептуальное обучение на уровне человека посредством индукции вероятностных программ. Наука 350 (6266), 1332–1338 (2015)

    CrossRef
    MathSciNet

    Google Scholar

  49. Ларссон Г., Мэйр М., Шахнарович Г.: Изучение представлений для автоматической раскраски. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9908, стр. 577–593. Спрингер, Чам (2016). https://doi.org/10.1007/978-3-319-46493-0_35

    CrossRef

    Google Scholar

  50. Левин А., Лищински Д., Вайс Ю.: Раскрашивание с использованием оптимизации. ACM TOG 23 (3), 689–694 (2004)

    CrossRef

    Google Scholar

  51. Ляо, Дж., Яо, Ю., Юань, Л., Хуа, Г., Кан, С.Б.: Передача визуальных атрибутов посредством глубокой аналогии изображений. Препринт arXiv arXiv:1705.01088 (2017)

  52. Лю, М.Ю., Брюэль, Т., Каутц, Дж. : Неконтролируемые сети преобразования изображений в изображения. В: НеврИПС (2017)

    Google Scholar

  53. Луан Ф., Пэрис С., Шехтман Э., Бала К.: Глубокая передача фотостиля. В: CVPR, стр. 4990–4998 (2017)

    .
    Google Scholar

  54. Матье, М., Купри, К., ЛеКун, Ю.: Глубокий многомасштабный прогноз видео за пределами среднеквадратичной ошибки. В: ICLR (2016)

    Google Scholar

  55. Нагано К. и др.: paGAN: аватары в реальном времени с использованием динамических текстур. В: SIGGRAPH Asia, p. 258 (2018)

    Google Scholar

  56. Oord, A.v.d. и др.: Wavenet: генеративная модель для необработанного звука. Препринт arXiv arXiv:1609.03499 (2016)

  57. Парк, Т. , Лю, М.Ю., Ван, Т.С., Чжу, Дж.Ю.: Синтез семантического изображения с пространственно-адаптивной нормализацией. В: ЦВПР (2019)

    Google Scholar

  58. Патель К., Друкер С.М., Фогарти Дж., Капур А., Тан Д.С.: Использование нескольких моделей для понимания данных. В: IJCAI (2011)

    Google Scholar

  59. Перес, П., Ганнет, М., Блейк, А.: Пуассоновское редактирование изображений. В: SIGGRAPH, стр. 313–318 (2003)

    .
    Google Scholar

  60. Портенье, Т., Ху, К., Сабо, А., Бигдели, С.А., Фаваро, П., Цвикер, М.: FaceShop: глубокое редактирование изображений лица на основе эскизов. АКМ Транс. График (ТОГ) 37 (4), 99:1–99:13 (2018)

    CrossRef

    Google Scholar

  61. Рагхаван Х. , Мадани О., Джонс Р.: Активное обучение с обратной связью по функциям и экземплярам. JMLR 7 (август), 1655–1686 (2006)

    MathSciNet
    МАТЕМАТИКА

    Google Scholar

  62. Рейнхард Э., Адхихмин М., Гуч Б., Ширли П.: Цветопередача между изображениями. IEEE вычисл. Графическое приложение 21 (5), 34–41 (2001)

    CrossRef

    Google Scholar

  63. Саенко К., Кулис Б., Фриц М., Даррелл Т.: Адаптация моделей визуальных категорий к новым областям. В: Данилидис, К., Марагос, П., Парагиос, Н. (ред.) ECCV 2010. LNCS, vol. 6314, стр. 213–226. Спрингер, Гейдельберг (2010). https://doi.org/10.1007/978-3-642-15561-1_16

    CrossRef

    Google Scholar

  64. Шефер, С., Макфейл, Т., Уоррен, Дж.: Деформация изображения с использованием метода наименьших квадратов. ACM TOG 25 (3), 533–540 (2006)

    CrossRef

    Google Scholar

  65. Settles, B., Craven, M.: Анализ стратегий активного обучения для задач маркировки последовательностей. В: EMNLP, стр. 1070–1079 (2008)

    .
    Google Scholar

  66. Шарма, А., Форуш, Х.: Slim-CNN: облегченная CNN для предсказания атрибутов лица. Препринт arXiv arXiv: 1907.02157 (2019)

  67. Шохер, А., Коэн, Н., Ирани, М.: «нулевое» сверхразрешение с использованием глубокого внутреннего обучения. В: CVPR, стр. 3118–3126 (2018)

    .
    Google Scholar

  68. Сочер, Р., Ганджу, М., Мэннинг, К.Д., Нг, А.: Нулевое обучение посредством кросс-модального переноса. В: Нейрипс (2013)

    Google Scholar

  69. «>

    Судзуки Р., Кояма М., Миято Т., Йонэцудзи Т., Чжу Х.: Пространственно управляемый синтез изображений с внутренним коллажированием изображений. Препринт arXiv arXiv: 1811.10153 (2018)

  70. Тайгман Ю., Поляк А., Вольф Л.: Неконтролируемая генерация междоменных изображений. В: ICLR (2017)

    Google Scholar

  71. Ульянов Д., Ведальди А., Лемпицкий В.: Deep image prior. В: ЦВПР (2018)

    Google Scholar

  72. Вольберг, Г.: Деформация цифрового изображения. IEEE Computer Society Press, Лос-Аламитос (1990)

    Google Scholar

  73. Сяо Т., Лю Ю., Чжоу Б., Цзян Ю., Сунь Дж.: Унифицированный анализ восприятия для понимания сцены. В: Феррари, В., Хеберт, М., Сминчисеску, К., Вайс, Ю. (ред.) ECCV 2018. LNCS, vol. 11209, стр. 432–448. Спрингер, Чам (2018). https://doi.org/10.1007/978-3-030-01228-1_26

    CrossRef

    Google Scholar

  74. Xu, K., Li, Y., Ju, T., Hu, S.M., Liu, T.Q.: Эффективное распространение редактирования на основе сходства с использованием дерева KD. АКМ ТОГ 28 (5), 1–6 (2009)

    Google Scholar

  75. Йосински, Дж., Клун, Дж., Бенжио, Ю., Липсон, Х.: Насколько переносимы функции в глубоких нейронных сетях? В: NeurIPS, стр. 3320–3328 (2014)

    Google Scholar

  76. Yu, C., Wang, J., Peng, C., Gao, C., Yu, G., Sang, N.: BiSeNet: двусторонняя сеть сегментации для семантической сегментации в реальном времени. В: Феррари, В., Хеберт, М., Сминчисеску, К., Вайс, Ю. (ред.) ECCV 2018. LNCS, vol. 11217, стр. 334–349.. Спрингер, Чам (2018). https://doi.org/10.1007/978-3-030-01261-8_20

    Перекрёстная ссылка

    Google Scholar

  77. «>

    Ю, Ф., Сефф, А., Чжан, Ю., Сонг, С., Фанхаузер, Т., Сяо, Дж.: LSUN: создание крупномасштабного набора данных изображений с использованием глубокого обучения с участием людей в петля. Препринт arXiv arXiv:1506.03365 (2015)

  78. Юсер К., Якобсон А., Хорнунг А., Соркин О.: Трансфузионная манипуляция изображениями. АКМ ТОГ 31 (6), 1–9 (2012)

    CrossRef

    Google Scholar

  79. Zeiler, MD, Fergus, R.: Визуализация и понимание сверточных сетей. В: Fleet, D., Pajdla, T., Schiele, B., Tuytelaars, T. (eds.) ECCV 2014. LNCS, vol. 8689, стр. 818–833. Спрингер, Чам (2014). https://doi.org/10.1007/978-3-319-10590-1_53

    CrossRef

    Google Scholar

  80. Чжан Р., Изола П., Эфрос А.А.: Раскрашивание цветных изображений. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9907, стр.

    This entry was posted in Популярное