Содержание
Примеры простого и глубокого рерайтинга – Блогопрактика
Игорь Козлов |
29.05.2016
| 2 комментария
Итак, рерайтинг – это видоизменение существующего текста без изменения его смысла. В жизни мы, сами того не замечая, часто используем его приемы, например, в разговорной речи.
Самый простой пример рерайтинга это… приветствия! Давайте, потренируемся и видоизменим слово: Здравствуйте!
Вместо этой фразы вы можете сказать: «Привет, добрый день, салют, как дела, день добрый, приветствую, как поживаешь, доброго времени суток».
По сути, каждый раз, когда мы используем синонимы или другие обороты речи, чтобы усилить мысль, расширить её, приукрасить или показать с другой стороны – мы занимаемся рерайтингом, только в устной форме.
Существует 2 вида рерайтинга: поверхностный и глубокий
Что такое поверхностный рерайтинг?
Это поверхностное, небольшое изменение текста. Иногда его бывает достаточно для того, чтобы создать уникальный текст.
Вы просто поменяли слова местами, вместо „добрый день” сказал „день добрый” и этого уже достаточно, чтобы поисковики посчитали ваш текст уникальным.
В такой текст, вы не привносите никакого своего смысла. Вы изменяете текст за счет:
- синонимов,
- добавления слов,
- убирания лишних,
- перестановки слов местами,
- перестановка частей речи.
Более подробно об этом и на примерах я рассказываю и показываю в своей книге «Превращаем буквы в деньги». Но для примера сравните:
Оригинал. Изучив рерайтинг, вы сможете зарабатывать деньги.
Простой рерайт: Вы сможете зарабатывать деньги, когда изучите рерайтинг.
В данном случае нет глубокий изменений текста. Есть перестановка частей предложения. Тем не менее для поисковых машин такой перестановки будет достаточно, чтобы считать текст уникальным.
Несколько ранее я уже писал, когда применяется поверхностный рерайтинг:
- когда вы плохо владеет темой
- когда тема специфическая, например медицинская, исторические, научные статьи.
Что такое глубокий рерайтинг?
Это более глубокая работа с текстом. Обычно делается после прочтения 2-3х тематических статей, понимания смысла их и генерирования на их основе совершенно нового текста.
В таком случае, в текст привносятся другие смысловые оттенки, хотя основной смысл остается прежним. Например:
Исходник: Существует парадигма, что фриланс – это удел молодежи.
Глубокий рерайт: Если кто думает, что фриланс это работа только для молодежи, тот глубоко ошибается.
В данном случае мы не видим замены синонимами. Здесь другая подача материала. В первом случае – констатация факта, дескать, существует парадигма. В другом — предположение, «если кто думает». Когда вы делаете глубокий рерайтинг, вы творчески работаете с текстом. Например:
Исходник: «Как правило, свой первый сайт человек делает необычайно ярким. Используя при этом множество контрастирующих между собой тонов. На одной странице могут уживаться, как теплые тона, так и холодные. Текст при этом изобилует множеством красок. Смотришь, не сайт, а калейдоскоп».
Глубокий рерайт: «Когда на сайте одновременно применяются контрастирующие между собою цветовые гаммы, такой сайт напоминает мне калейдоскоп. Новичку кажется, что чем разнообразнее цвета, тем лучше выглядит сайт, но на самом деле такой подход ошибочный».
Сравните 2 текста. Смысл один и тот же. Новичок ошибается при создании своего первого сайта, применяя контрастные тона. Однако подача информации разная.
Чтобы научиться делать глубокий рерайт, нужно ловить смысл предложения, отрывка и текста в целом. Тем не менее, такие приемы поверхностного рерайтинга, как синонимы, добавления новых слов, перестановка, все равно используются и при глубоком рерайтинге.
Вопросы к статье:
- В чем разница между поверхностным и глубоким рерайтом?
- Когда используется поверхностный рерайтинг?
- Найдите в Интернете абзац текста из 2-3 предложений и сделайте рерайтинг.
Автор: Игорь Козлов
Чистый звук в мире инфобизнеса
Заработок — это продажи! —
Психология продаж в 7 подкастах! Уберите свой страх и внутреннее сопротивление
Глубокий рерайт — что это и как делать?
Каждый рерайтер хотя бы раз в жизни сталкивался с вопросами, касающимися глубокого рерайтинга статей. Что это такое? Чем вдумчивый пересказ отличается от легкого рерайта? Зачем он нужен?
Глубокий рерайтинг – что это? И как выполнять?
В статье мы рассмотрим такие вопросы: Какая уникальность обычно у пересказа текста, сколько времени уходит на такой рерайт? Намного ли дороже стоит глубокий рерайтинг статей, что из себя представляет рерайт этого типа, где может пригодиться он? Сколько заказов в интернете на него и как научиться делать качественный рерайт самому? Сколько стоит такой рерайт текста, как написать статью, чтобы она читалась даже лучше, чем исходник? Сколько должно быть источников у такого рерайта и когда работу над текстом можно считать завершенной? О том, как сделать написание статьи простым, но интересным занятием, мы поговорим в нашей статье. Вы научитесь писать статьи методом полной проработки текста и узнаете, как рерайт может позволить сделать статью лучше, чем исходник. Для вас не будет секретом, что означает глубокий рерайтинг статей и какие правила используются при изложении текста. Проще говоря, вопрос “что такое глубокий рерайт и с чем его едят” или “Как измерить глубину рерайтинга” – больше не будут вопросами. Потомукак вы узнаете о нем все, вплоть до его отличий от копирайтинга. Научимся измерять уникальность получившегося текста и узнаем, как делать рерайтинг глубоко. Поймем на примерах, чем он отличается от пересказа или изложения и как вообще можно облегчить процесс написания текста. Недолго думая, выберем, сколько источников использовать и узнаем правила, как не навредить статье при изложении. Раскроем секрет, где используется рерайтинг более вдумчивый и почему он считается сложнее поверхностного. Раскроем технику, как делается такой рерайтинг и как выполнить рерайт проще и быстрее обычного. Таким образом, нас не будут волновать вопросы типа – что подразумевают слова “глубокий” и как рерайт может быть таким.
Мы узнаем не только почему глубокий пересказ так называется, но и как его делать, если он занимает много времени. Поймите, что умение писать грамотно вдумчивый пересказ – ключ к тому, чтобы заказчик остался доволен. Мы разберем ошибки, которые чаще всего встречаются при этом и узнаем, как сделать текст красиво, чтобы он запомнился и стал билетом в белый список заказчика. О том, какой рерайт называют глубоким и почему, пойдет речь в этой статье. Более того, мы узнаем, как превратить работу в высокодоходный бизнес, какие деньги можно заработать на нем. Ведь главное – писать красиво, чтобы статью хотелось читать и перечитывать. Но есть ли способ сделать всю работу автоматически, и какие существуют программы для глубокого рерайтинга онлайн? Может ли написание статей стать максимально прибыльным при этом виде текстов? О том, какая разница между ним и копирайтом, и какой рерайтинг считается глубоким, мы поговорим далее. А еще о том, что такое глубокий рерайтинг, пойдет речь в этой статье.
Что такое глубокий рерайт?
Глубокий рерайт – это переписывание статьи своими словами с чистого листа.
Глубокий рерайт означает закрыть исходник и написать все с нуля.
Глубокий рерайт подразумевает вдумчивое чтение и полную переработку текста в уме и на бумаге.
Глубокий рерайт не может сделать ни одна программа, с этим справится только человек.
Глубокий рерайт – это сначала чтение, а после написание текста с нуля.
Глубокий рерайтинг – это изложение.
Глубокий рерайт ценится так же, как поверхностный. Но с каждым днем преимущество встает на его сторону. Причины – постоянный рост интернета за счет легкого рерайта, появление новых алгоритмов проверки на уникальность (они распознают легкий рерайт как копипаст).
Глубокий рерайтинг помогает создавать тексты с высокой уникальностью. Отличить его от копирайта становится сложно. Не зная источника, мы не сможем даже утверждать, что это не копирайт. Ни одна программа проверки уникальности не покажет маленький процент уникальности, потому что глубокий рерайт сравним с копирайтом. Если источников больше одного, то текст и впрямь становится копирайтом. Каждый копирайтер когда-то проходил путь от рерайтинга поверхностного до глубокого.
Как делать глубокий рерайтинг?
Глубокий рерайт можно выполнять, держа перед собой два окна: текст исходника в одном окне (браузер) и чистое пространство для написания рерайта в другом (блокнот).
Глубокий рерайт можно делать со скоростью до 50 знаков в минуту. В отличие от поверхностного рерайта, этот требует гораздо больше усилий и времени. Считается, что нельзя одновременно заниматься другими делами с глубоким рерайтом. Этот вдумчивый процесс занимает сознание. Это не подстановка синонимов, не сквозное изменение текста. Это рождение нового текста, в котором каждый знак рожден осознанными стараниями.
Глубокий рерайтинг – это параллельное чтение и написание. Удобнее держать перед глазами исходник. Сначала все читаем, потом начинаем писать. Начинаем с первого предложения (или двух). Читаем, думаем как проще это написать (или как начать с другого конца), пишем начало. Затем пишем продолжение, выхватывая глазами из текста отдельные предложения. Для примера можно взять описание сериалов. Как правило, описания короткие (порой даже в одно предложение). Поэтому я ищу несколько таких описаний. Затем начинаю делать глубокий рерайт. Читаю самое длинное из описаний. Беру первый абзац и пишу его совершенно другими предложениями. Нередко количество предложений меняется, а также последовательность. Действительно, то, что есть в одном предложении, можно перенести в другое. Любые подробности, уточнения и т.п. вообще можно оформить как отдельное предложение. Не повредит тексту и такой прием, как сокращение. Особенно часто это используется, когда исходник нам великоват. Мы просто читаем вскользь, стараясь выхватить главное. И зафиксировать это в своей статье. Все вышеупомянутое делаем для каждого абзаца, и получается глубокий рерайтинг статьи.
Глубокий рерайтинг: выводы
Надеюсь, Вы удовлетворены моим ответом на вопрос “Что такое глубокий рерайтинг?”, и Вам не придется искать еще какие-либо определения. Весь курс обучения глубокому рерайту можно разделить на несколько частей. Самый главный из уроков по рерайтингу – понять глубокий рерайтинг на конкретных примерах. И тем самым узнать о его отличиях от техники сверхскоростного рерайтинга. Вопрос о глубоком рерайте тесно связан с проверкой на уникальность сервисом текст ру – это одна из программ проверки текста на уникальность, которая не предъявляет претензий к глубокому рерайту, зато оценку быстрому рерайту всегда ставит ниже 50%. О том, как сделать статью глубоким рерайтом, чтобы она прошла тест на текст ру, я писал в отдельной статье. И хотя программ по написанию глубокого рерайта нет, есть синонимайзер онлайн, который делает рерайт поверхностный.
(Visited 30 times, 1 visits today)
Переписывание глубокой генеративной модели
2 минуты
Превью видео
ArXiv
Препринт
ECCV 2020
Оральный
Презентация
Слайды
Исходный код
GitHub
Демонстрационный блокнот Colab
Можно ли переписать правила в глубокой сети?
Глубокое обучение сети — это процедура слепой оптимизации, при которой
программисты определяют цели, но не решения, которые появляются.
В этой статье мы спрашиваем, можно ли создавать глубокие сети другим способом.
Можно ли напрямую переписать правила в сети ?
Переписать правила в
современный StyleGAN v2
генеративная модель.
Переписаны правила, регулирующие водяные знаки, людей и башни.
непосредственно пользователем, используя наш метод.
Зачем переписывать модель?
Есть две причины, по которым следует напрямую переписать глубокую сеть:
- Чтобы получить представление о том, как глубокая сеть
систематизирует свои знания . - Чтобы творческие пользователи могли быстро создавать новые модели
для которых есть нет существующего набора данных .
Переписывание модели предусматривает способ построения глубоких сетей в соответствии с
к намерениям пользователя. Вместо того, чтобы ограничивать сети имитацией данных
которые у нас уже есть, переписывание позволяет глубоким сетям моделировать мир
это следует новым правилам, которые пользователь хочет иметь .
Что такое переписывание модели?
Переписывание модели позволяет человеку редактировать внутренние правила глубокого
сети напрямую вместо обучения на большом наборе данных.
Разница между обучением и переписыванием сродни
к разнице между естественным отбором и генной инженерией.
В то время как обучение позволяет эффективно оптимизировать глобальную цель,
он не допускает прямой спецификации внутренних механизмов.
Напротив, переписывание позволяет человеку напрямую выбирать внутреннюю
правила, которые они хотят включить, даже если этот выбор не случается
соответствовать существующему набору данных или оптимизировать глобальную цель.
Переписать модель сложно, потому что для ее эффективного выполнения требуется
пользователю развить каузально правильное понимание структуры,
поведение и назначение внутренних параметров сети.
До сих пор было неизвестно, является ли прямая переписывание модели
разумное предложение.
Наша статья показывает, что переписывание модели возможно.
Видео
Это 10-минутное выступление демонстрирует пользовательский интерфейс и дает
обзор математических идей.
Файлы видео в формате mp4 можно загрузить напрямую:
- Короткий 2-минутный превью видео
- 10-минутный доклад ECCV 2020
Связь с ассоциативной памятью
Наш метод основан на гипотезе о том, что веса генератора действуют
как оптимальная линейная ассоциативная память (OLAM).
ОЛАМ классический однослойный
структура нейронных данных для запоминания ассоциаций, описанная
Теуво Кохонен и
Джеймс А. Андерсон (независимо) в 1970-х годах.
В нашем случае мы предполагаем, что в рамках крупной современной многослойной сверточной
сети, каждый отдельный уровень играет роль OLAM, в котором хранится набор
правил, которые связывают ключи, обозначающие значимый контекст, со значениями,
которые определяют выпуск.
Гипотеза оптимальности подразумевает, что индивидуум
запомненное правило хранится в гирях в слоте, соответствующем
конкретное подпространство обновлений первого ранга, определяемое фиксированным глобальным ключом
статистика и контекст (ключ) изменяемого правила, но не
ценить.
Другими словами, одно правило соответствует строке памяти, которая
можно свободно переписывать.
Поэтому, чтобы изменить правило, мы сначала определяем направление подпространства
d , соответствующий слоту памяти одного конкретного правила, то мы
внесите изменения в этом направлении, чтобы добиться желаемого изменения. Поскольку
направление обновления сводит к минимуму взаимодействие с другими правилами, одно правило может
резко изменился, чтобы соответствовать любой цели, которую пользователь хочет указать,
при этом остальная часть поведения модели остается практически неизменной.
Обоснование обсуждается далее в разговоре,
и все подробности описаны в статье.
Пример результатов
Результаты ниже показывают изменения одного правила в StyleGANv2. В каждом случае,
четыре примера, выбранные пользователем (в центре верхней строки), устанавливают контекст
для начала правила переписаны, а примеры «копировать и вставить» (слева и справа от
верхний ряд) указывают, как пользователь хочет изменить модель.
В приведенной ниже сетке показаны пары выходов: для каждой пары первым является выход
оригинальный немодифицированный StyleGANv2. Второй — это результат модифицированного
StyleGANv2, применяя намерение пользователя с помощью нашего метода.
Первое: изменить правило, определяющее детские брови, чтобы они выглядели как густые усы.
Изменение правила для заостренных вершин башен, чтобы превратить их в деревья.
Изменение правила для макушек голов лошадей, чтобы надевать на лошадей шапки.
Изменение правила рисования хмурого взгляда на правило рисования улыбки.
Удаление главного окна в здании путем изменения правила рисования пустой стены.
Как цитировать
@inproceedings{bau2020rewriting, title={Переписывание глубокой генеративной модели}, author={Бау, Дэвид и Лю, Стивен и Ван, Тунчжоу и Чжу, Джун-Ян и Торральба, Антонио}, booktitle={Материалы Европейской конференции по компьютерному зрению (ECCV)}, год = {2020} }
Переписывание глубокой генеративной модели
Аберман, К., Ляо, Дж., Ши, М., Лищински, Д., Чен, Б., Коэн-Ор, Д.: Нейронные лучшие друзья: редкий крест — доменная переписка. АКМ ТОГ 37 (4), 69 (2018)
CrossRef
Google Scholar
An, X., Pellacini, F.: AppProp: распространение редактирования внешнего вида для всех пар. ACM TOG 27 (3), 40 (2008)
CrossRef
Google Scholar
«>Андрыхович М. и др.: Обучение обучению с помощью градиентного спуска с помощью градиентного спуска. В: NeurIPS, стр. 3981–3989 (2016)
Google Scholar
Барнс, К., Шехтман, Э., Финкельштейн, А., Голдман, Д.Б.: PatchMatch: алгоритм рандомизированного соответствия для структурного редактирования изображений. ACM TOG 28 (3), 24 (2009)
CrossRef
Google Scholar
Бау, Д. и др.: Семантическая обработка фотографий с предварительным генеративным изображением. ACM TOG 38 (4), 1–11 (2019)
CrossRef
Google Scholar
«>Бенжио С., Бенжио Ю., Клотье Дж., Гексей Дж.: Об оптимизации правила синаптического обучения. В: Оптимальность в искусственных и биологических нейронных сетях, стр. 6–8. Техасский университет (1992)
Google Scholar
Бусмалис, К., Зильберман, Н., Дохан, Д., Эрхан, Д., Кришнан, Д.: Неконтролируемая адаптация домена на уровне пикселей с генеративными состязательными сетями. В: ЦВПР (2017)
Google Scholar
Браун, Т.Б., и др.: Языковые модели — это учащиеся с небольшим количеством попыток. Препринт arXiv arXiv:2005.14165 (2020)
Берт П., Адельсон Э.: Пирамида Лапласа как компактный код изображения.
IEEE транс. коммун. 31 (4), 532–540 (1983)
CrossRef
Google Scholar
Чан, К., Гиносар, С., Чжоу, Т., Эфрос, А.А.: Теперь все танцуют. В: ICCV (2019)
Google Scholar
Чен, X., Цзоу, Д., Ли, Дж., Цао, X., Чжао, Q., Чжан, Х.: Изучение разреженного словаря для распространения редактирования изображений с высоким разрешением. В: ЦВПР (2014)
Google Scholar
Чен, X., Цзоу, Д., Чжао, Q., Тан, П.: Распространение редактирования с сохранением коллектора. АКМ ТОГ 31 (6), 1–7 (2012)
Google Scholar
Кон, Д., Атлас, Л., Ладнер, Р.: Улучшение обобщения с помощью активного обучения. Мах. Учиться. 15 (2), 201–221 (1994)
Google Scholar
«>Досовицкий А., Брокс Т.: Создание изображений с метриками сходства восприятия на основе глубоких сетей. В: Нейрипс (2016)
Google Scholar
Dy, J.G., Brodley, CE: Визуализация и интерактивный выбор функций для неконтролируемых данных. В: SIGKDD, стр. 360–364 (2000)
.
Google ScholarЭфрос, А.А., Фриман, В.Т.: Выстегивание изображений для синтеза и переноса текстуры. В: СИГГРАФ. АКМ (2001)
Google Scholar
Эндо Ю., Иидзука С., Канамори Ю., Митани Дж.: DeepProp: извлечение глубоких признаков из одного изображения для распространения редактирования.
вычисл. График Форум 35 (2), 189–201 (2016)
CrossRef
Google Scholar
Фейлс, Дж. А., Олсен-младший, Д. Р.: Интерактивное машинное обучение. В: ACM IUI, стр. 39–45 (2003)
.
Google ScholarФинн, К., Аббил, П., Левин, С.: Независимое от модели метаобучение для быстрой адаптации глубоких сетей. В: ICML, стр. 1126–1135 (2017). JMLR.org
Фрид, О. и др.: Текстовое редактирование видео с говорящей головой. ACM TOG 38 (4), 1–14 (2019)
CrossRef
Google Scholar
Гэтис, Л.А., Экер, А.С., Бетге, М.: Передача стиля изображения с использованием сверточных нейронных сетей. В: ЦВПР (2016)
Google Scholar
Гудфеллоу И.
и др.: Генеративные состязательные сети. В: Нейрипс (2014)
Google Scholar
Гуо, Д.: Координация вычислительных и визуальных подходов для интерактивного выбора признаков и многомерной кластеризации. Инф. Вис. 2 (4), 232–246 (2003)
CrossRef
Google Scholar
Hasinoff, S.W., Jóźwiak, M., Durand, F., Freeman, W.T.: Редактирование личных фотоколлекций с помощью поиска и замены. В: Международная конференция IEEE по вычислительной фотографии (ICCP), 2010 г., стр. 1–8. IEEE (2010)
Google Scholar
Герцманн, А., Джейкобс, К.Э., Оливер, Н., Курлесс, Б., Салезин, Д.Х.: Аналогии изображений. В: SIGGRAPH (2001)
Google Scholar
Хойзел, М., Рамзауэр, Х.
, Унтертинер, Т., Несслер, Б., Хохрайтер, С.: GAN, обученные с помощью правила обновления в двух временных масштабах, сходятся к локальному равновесию Нэша. В: Нейрипс (2017)
Google Scholar
Хинтон, Г.Э., Осиндеро, С., Тех, Ю.В.: Алгоритм быстрого обучения для сетей глубокого убеждения. Нейронные вычисления. 18 , 1527–1554 (2006)
Перекрёстная ссылка
MathSciNetGoogle Scholar
Хуанг, X., Лю, М.-Ю., Белонги, С., Каутц, Дж.: Мультимодальный неконтролируемый перевод изображения в изображение. В: Феррари, В., Хеберт, М., Сминчисеску, К., Вайс, Ю. (ред.) ECCV 2018. LNCS, vol. 11207, стр. 179–196. Спрингер, Чам (2018). https://doi.org/10.1007/978-3-030-01219-9_11
CrossRef
Google Scholar
Ху, М., Чжан, Р., Чжу, Дж. Ю., Пэрис, С.
, Герцманн, А.: Преобразование и проецирование изображений в генеративные сети с классовыми условиями. В: ECCV (2020)
Google Scholar
Иидзука С., Симо-Серра Э., Исикава Х.: Да будет цвет!: Совместное сквозное изучение глобальных и локальных априорных изображений для автоматической раскраски изображений с одновременной классификацией. ACM TOG 35 (4), 1–11 (2016)
CrossRef
Google Scholar
Изола, П., Чжу, Дж.Ю., Чжоу, Т., Эфрос, А.А.: Преобразование изображения в изображение с условными состязательными сетями. В: ЦВПР (2017)
Google Scholar
Цзян Б., Кэнни Дж.: Интерактивное машинное обучение с помощью набора инструментов с ускорением на графическом процессоре. В: ACM IUI, стр. 535–546 (2017)
.
Google Scholar «>Каррас, Т.: набор данных FFHQ (2019 г.). https://github.com/NVlabs/ffhq-dataset
Каррас, Т., Айла, Т., Лайне, С., Лехтинен, Дж.: Прогрессивный рост GAN для улучшения качества, стабильности и разнообразия. В: ICLR (2018)
Google Scholar
Каррас, Т., Лайне, С., Айла, Т.: Архитектура генератора на основе стилей для генеративно-состязательных сетей. В: ЦВПР (2019)
Google Scholar
Каррас Т.
, Лайне С., Айттала М., Хеллстен Дж., Лехтинен Дж., Айла Т.: Анализ и улучшение качества изображения в styleGAN. В: ЦВПР (2020)
Google Scholar
Кингма, Д., Ба, Дж.: Адам: метод стохастической оптимизации. В: ICLR (2015)
Google Scholar
Кингма, Д.П., Веллинг, М.: Автокодирование вариационного Байеса. В: ICLR (2014)
Google Scholar
Кохонен, Т.: Память корреляционной матрицы. IEEE транс. вычисл. 100 (4), 353–359 (1972)
CrossRef
Google Scholar
Кохонен, Т.: Ассоциативная память: теоретико-системный подход, том. 17. Спрингер, Гейдельберг (2012). https://doi.org/10.1007/978-3-642-96384-1
МАТЕМАТИКА
Google Scholar
«>Кокиопулу, Э., Чен, Дж., Саад, Ю.: Оптимизация трасс и собственные проблемы в методах уменьшения размерности. Число. Приложение линейной алгебры. 18 (3), 565–602 (2011)
CrossRef
MathSciNetGoogle Scholar
Краузе, Дж., Перер, А., Бертини, Э.: INFUSE: интерактивный выбор функций для прогнозного моделирования многомерных данных. IEEE транс. Вис. вычисл. График 20 (12), 1614–1623 (2014)
CrossRef
Google Scholar
Лейк Б.М., Салахутдинов Р., Тененбаум Дж.Б.: Концептуальное обучение на уровне человека посредством индукции вероятностных программ.
Наука 350 (6266), 1332–1338 (2015)
CrossRef
MathSciNetGoogle Scholar
Ларссон Г., Мэйр М., Шахнарович Г.: Изучение представлений для автоматической раскраски. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9908, стр. 577–593. Спрингер, Чам (2016). https://doi.org/10.1007/978-3-319-46493-0_35
CrossRef
Google Scholar
Левин А., Лищински Д., Вайс Ю.: Раскрашивание с использованием оптимизации. ACM TOG 23 (3), 689–694 (2004)
CrossRef
Google Scholar
Ляо, Дж., Яо, Ю., Юань, Л., Хуа, Г., Кан, С.Б.: Передача визуальных атрибутов посредством глубокой аналогии изображений. Препринт arXiv arXiv:1705.01088 (2017)
Лю, М.Ю., Брюэль, Т., Каутц, Дж.
: Неконтролируемые сети преобразования изображений в изображения. В: НеврИПС (2017)
Google Scholar
Луан Ф., Пэрис С., Шехтман Э., Бала К.: Глубокая передача фотостиля. В: CVPR, стр. 4990–4998 (2017)
.
Google ScholarМатье, М., Купри, К., ЛеКун, Ю.: Глубокий многомасштабный прогноз видео за пределами среднеквадратичной ошибки. В: ICLR (2016)
Google Scholar
Нагано К. и др.: paGAN: аватары в реальном времени с использованием динамических текстур. В: SIGGRAPH Asia, p. 258 (2018)
Google Scholar
Oord, A.v.d. и др.: Wavenet: генеративная модель для необработанного звука. Препринт arXiv arXiv:1609.03499 (2016)
Парк, Т.
, Лю, М.Ю., Ван, Т.С., Чжу, Дж.Ю.: Синтез семантического изображения с пространственно-адаптивной нормализацией. В: ЦВПР (2019)
Google Scholar
Патель К., Друкер С.М., Фогарти Дж., Капур А., Тан Д.С.: Использование нескольких моделей для понимания данных. В: IJCAI (2011)
Google Scholar
Перес, П., Ганнет, М., Блейк, А.: Пуассоновское редактирование изображений. В: SIGGRAPH, стр. 313–318 (2003)
.
Google ScholarПортенье, Т., Ху, К., Сабо, А., Бигдели, С.А., Фаваро, П., Цвикер, М.: FaceShop: глубокое редактирование изображений лица на основе эскизов. АКМ Транс. График (ТОГ) 37 (4), 99:1–99:13 (2018)
CrossRef
Google Scholar
Рагхаван Х.
, Мадани О., Джонс Р.: Активное обучение с обратной связью по функциям и экземплярам. JMLR 7 (август), 1655–1686 (2006)
MathSciNet
МАТЕМАТИКАGoogle Scholar
Рейнхард Э., Адхихмин М., Гуч Б., Ширли П.: Цветопередача между изображениями. IEEE вычисл. Графическое приложение 21 (5), 34–41 (2001)
CrossRef
Google Scholar
Саенко К., Кулис Б., Фриц М., Даррелл Т.: Адаптация моделей визуальных категорий к новым областям. В: Данилидис, К., Марагос, П., Парагиос, Н. (ред.) ECCV 2010. LNCS, vol. 6314, стр. 213–226. Спрингер, Гейдельберг (2010). https://doi.org/10.1007/978-3-642-15561-1_16
CrossRef
Google Scholar
Шефер, С., Макфейл, Т., Уоррен, Дж.: Деформация изображения с использованием метода наименьших квадратов.
ACM TOG 25 (3), 533–540 (2006)
CrossRef
Google Scholar
Settles, B., Craven, M.: Анализ стратегий активного обучения для задач маркировки последовательностей. В: EMNLP, стр. 1070–1079 (2008)
.
Google ScholarШарма, А., Форуш, Х.: Slim-CNN: облегченная CNN для предсказания атрибутов лица. Препринт arXiv arXiv: 1907.02157 (2019)
Шохер, А., Коэн, Н., Ирани, М.: «нулевое» сверхразрешение с использованием глубокого внутреннего обучения. В: CVPR, стр. 3118–3126 (2018)
.
Google ScholarСочер, Р., Ганджу, М., Мэннинг, К.Д., Нг, А.: Нулевое обучение посредством кросс-модального переноса. В: Нейрипс (2013)
Google Scholar
«>Тайгман Ю., Поляк А., Вольф Л.: Неконтролируемая генерация междоменных изображений. В: ICLR (2017)
Google Scholar
Ульянов Д., Ведальди А., Лемпицкий В.: Deep image prior. В: ЦВПР (2018)
Google Scholar
Вольберг, Г.: Деформация цифрового изображения. IEEE Computer Society Press, Лос-Аламитос (1990)
Google Scholar
Сяо Т., Лю Ю., Чжоу Б., Цзян Ю., Сунь Дж.: Унифицированный анализ восприятия для понимания сцены. В: Феррари, В., Хеберт, М., Сминчисеску, К., Вайс, Ю. (ред.) ECCV 2018. LNCS, vol. 11209, стр.
432–448. Спрингер, Чам (2018). https://doi.org/10.1007/978-3-030-01228-1_26
CrossRef
Google Scholar
Xu, K., Li, Y., Ju, T., Hu, S.M., Liu, T.Q.: Эффективное распространение редактирования на основе сходства с использованием дерева KD. АКМ ТОГ 28 (5), 1–6 (2009)
Google Scholar
Йосински, Дж., Клун, Дж., Бенжио, Ю., Липсон, Х.: Насколько переносимы функции в глубоких нейронных сетях? В: NeurIPS, стр. 3320–3328 (2014)
Google Scholar
Yu, C., Wang, J., Peng, C., Gao, C., Yu, G., Sang, N.: BiSeNet: двусторонняя сеть сегментации для семантической сегментации в реальном времени. В: Феррари, В., Хеберт, М., Сминчисеску, К., Вайс, Ю. (ред.) ECCV 2018. LNCS, vol. 11217, стр. 334–349.. Спрингер, Чам (2018). https://doi.org/10.1007/978-3-030-01261-8_20
Перекрёстная ссылка
Google Scholar
«>Юсер К., Якобсон А., Хорнунг А., Соркин О.: Трансфузионная манипуляция изображениями. АКМ ТОГ 31 (6), 1–9 (2012)
CrossRef
Google Scholar
Zeiler, MD, Fergus, R.: Визуализация и понимание сверточных сетей. В: Fleet, D., Pajdla, T., Schiele, B., Tuytelaars, T. (eds.) ECCV 2014. LNCS, vol. 8689, стр. 818–833. Спрингер, Чам (2014). https://doi.org/10.1007/978-3-319-10590-1_53
CrossRef
Google Scholar
Чжан Р., Изола П., Эфрос А.А.: Раскрашивание цветных изображений. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9907, стр.
Андерсон, Дж. А.: Простая нейронная сеть, генерирующая интерактивную память. Мат. Бионауч. 14 (3–4), 197–220 (1972)
CrossRef
Google Scholar
Бау Д. и др.: Рассечение Гана: визуализация и понимание генеративно-состязательных сетей. В: ICLR (2019)
Google Scholar
Донахью Дж. и др.: DeCAF: функция глубокой сверточной активации для общего визуального распознавания. В: ICML (2014)
Google Scholar
Джонсон, Дж., Алахи, А., Фей-Фей, Л.: Потери восприятия для передачи в режиме реального времени и сверхвысокого разрешения. В: Лейбе, Б., Матас, Дж., Себе, Н., Веллинг, М. (ред.) ECCV 2016. LNCS, vol. 9906, стр. 694–711. Спрингер, Чам (2016). https://doi.org/10.1007/978-3-319-46475-6_43
CrossRef
Google Scholar
Кохонен Т., Руохонен М.: Представление ассоциированных данных с помощью матричных операторов. IEEE транс. вычисл. 100 (7), 701–702 (1973)
CrossRef
Google Scholar
Судзуки Р., Кояма М., Миято Т., Йонэцудзи Т., Чжу Х.: Пространственно управляемый синтез изображений с внутренним коллажированием изображений. Препринт arXiv arXiv: 1811.10153 (2018)
Ю, Ф., Сефф, А., Чжан, Ю., Сонг, С., Фанхаузер, Т., Сяо, Дж.: LSUN: создание крупномасштабного набора данных изображений с использованием глубокого обучения с участием людей в петля. Препринт arXiv arXiv:1506.03365 (2015)