ГлавнаяСтатьи и советы → Страница 3
Статьи и советы

Техника Помодоро

Техника Помодоро
Статьи и советы
Техника Помодоро - техника управления временем, cамая популярная и рабочая методика в тайм-менеджменте. Техника предполагает разбиение задач на 25-минутные периоды, называемые «помидоры»,
Статьи и советы

Советы для создания "узнаваемого" логотипа

Советы для создания "узнаваемого" логотипа
Статьи и советы
Логотип — графический знак, эмблема или символ, используемый территориальными образованиями, коммерческими предприятиями, организациями и частными лицами для повышения узнаваемости и распознаваемости
Статьи и советы

Принцип DRY (Don't Repeat Yourself)

Принцип DRY (Don't Repeat Yourself)
Статьи и советы
Принцип DRY (Don't Repeat Yourself) – означает лишь, НЕ ПОВТОРЯЙТЕСЬ. Старайтесь избегать в коде повторения каких-то блоков кода. Так как при дальнейшей разработке, когда нужно будет внести изменение
Статьи и советы

Как и когда использовать ссылочные атрибуты rel="sponsored" и rel="ugc"

Как и когда использовать ссылочные атрибуты rel="sponsored" и rel="ugc"
Статьи и советы
В настоящее время для ссылок можно использовать три атрибута: “nofollow”, “sponsored” и “ugc”, каждый из которых усиливает разное значение. Последние 2 появились относительно не давно. Что это за
Статьи и советы

Bootstrap 5.0 Alpha теперь без JQuery

Bootstrap 5.0 Alpha теперь без JQuery
Статьи и советы
Версия 5.0 фреймворка Bootstrap для создания веб-сайтов, ориентированных на мобильные устройства, перешла на стадию альфа-релиза, и этот инструментарий больше не зависит от библиотеки jQuery.
Статьи и советы

Что такое ранжирование сайта и какое оно в 2020 году

Что такое ранжирование сайта и какое оно в 2020 году
Статьи и советы
Ранжирование – это процесс оценки страницы сайта и определения ее места в поисковой выдаче по заданному запросу пользователя. Механизм ранжирования можно описать так: поисковая система получает
Статьи и советы

Что такое Веб-скрапинг?

Что такое Веб-скрапинг?
Статьи и советы
В широком понимании веб-скрапинг — это сбор данных с различных интернет-ресурсов. Общий принцип его работы можно объяснить следующим образом: некий автоматизированный код выполняет GET-запросы на
1 2 3 4