Харків'яни будуть здивовані, коли дізнаються, як їх всенароднообраного записував свою передвиборну промову.
Коментарі, як то кажуть, зайві - відео говорить сама за себе :)
Читати повністю
WordPress простий і мінімалістичний, але в той же час саме він залишається одним з найбільш потужних і гнучких движків. Однак, якщо встановити WordPress з набором плагінів по-замовчуванню, то він не дуже пристосований для SEO - оптимізацією потрібно займатися практично з нуля. Тобто потрібно було - зараз цю роботу за вас виконає новий плагін WPSEO.
Читати повністю
Web 2.0 Magazine представив колекцію css-оформлень для текстових банерів Google Adsense. Причому, це тільки оформлення - значить, що вам не доведеться правити код Adsense, тим самим порушуючи ліцензію програми. Досить красивий і безпечний спосіб збільшити "кликабельность" оголошень легальним способом.
Читати повністю
У мене таке відчуття, що хлопці з Яндекса більше захоплені боротьбою з сеошник, ніж поліпшенням пошуку. Тепер вони вирішили, що бачити посилання на сайт - це занадто велика честь для вебмайстрів. Цитата з офіційного блогу пошукача:
Ми тривалий час надавали унікальні можливості для веб-майстрів, зокрема, видаючи повний список сторінок, що містять посилання на задану (оператор #link), дозволяючи шукати слова, що містяться тільки в текстах посилань на конкретну сторінку (link # anchor), і навіть допускаючи їх поєднання з довільними пошуковими операторами і словами.
Читати повністю
Чутки про те, що вже не є вільним у всіх відносинах джерелом інформації ходили давно. А тепер вони підкріпилися і деякими даними, які явно свідчать про цензуру в онлайн-енціклопедіі.Как з'ясувалося, ряд великих американських корпорацій на чолі з ЦРУ вже не один місяць редагують матеріали Wikipedia.
Дослідник Каліфорнійського технологічного інституту, Вірджіл Гріффіт, розробив програму Wikipedia Scanner, призначену для впізнання користувачів, які займалися редагуванням в Wikipedia. Результати дослідження виявилися невтішними: за словами Вірджіла, зміни в статті енциклопедії часто вносилися зацікавленими особами: "Звичайно, ми не можемо точно встановити особу людини, який редагував статті. Однак ми майже зі стовідсотковою точністю можемо дізнатися, з якої організації був редактор ".
Читати повністю
Крім свого прямого призначення - пошуку інформації, на Tafiti можна зберігати результати пошуку та навіть обмінюватися ними з іншими користувачами. Результати пошуку можна залишити до кращих часів на спеціальних «полицях» у вигляді каруселі або дерева.
На Tafiti.com вже доступний пошук в новинах, картинках, пошук по книгах і в інтернет.
Крім того, результати пошукових запитів можна публікувати в блогах і передавати по електронній пошті.
Читати повністю
Що не кажіть, а сайт - це велика відповідальність. Задумайтесь, адже Ви визначають зміст статей на власному сайті, а значить і несете повну відповідальність за кожне слово на ньому. Більш того, Ви несете відповідальність і за коментарі до ваших текстам.С юридичної точки зору, Інтернет часто розглядається поза законом. Порушення автороского права в мережі часто недооцінюються і вважаються звичною справою. В основному просто тому, що власники сайтів не знають, що вони взагалі порушують закон.
Читати повністю
Зазвичай вибір движка для сайту - це вибір між функціоналом і простотою адміністрування. Забавно, що найбільш популярними CMS там не вдається знайти ідеального поєднання цих якостей, а отже ідеального рішення для всіх сайтовладельцев не існує - кожна система хороша по-своєму, тому до вибору потрібно підійти досить серйозно.
Для прикладу давайте подивимося на сильні сторони найпопулярніших систем управління контентом
Читати повністю
Публікуємо інтерв'ю керівника відділу веб-пошуку компанії Яндекс для червневого номера журналу "IT спец".
Наочний і повсякденний при заходів - компанія вирішила створити свій власний сайт для залучення потенційних клієнтів. Що необхідно врахувати вже на етапі створення сайту, щоб він був цікавий пошуковим системам, зокрема Яндексу?
Робот пошукової системи - програма, яка заходить на сайт на тих же правах, що й випадковий, але дуже цікавий користувач. Він дізнається про сайт по посиланнях на інших сайтах або коли йому скажуть про існування сайту прямо (за допомогою http://webmaster.yandex.ru/). Аналізуючи сторінку, на яку десь послалися, робот намагається виявити, які ще документи є на сайті, скачати їх, проіндексувати, знайти такі документи, інший сайт ... і так до нескінченності.
Деякі сайти бояться занадто активною індексації. По-перше, вона може створити великий трафік, за який власник сайту платить. По-друге, якщо у сайту ненадійний хостинг, а скрипти недбало написані, інтенсивне скачування сторінок роботом може перевантажити сайт і користувачі не зможуть до нього «достукатися», поки його обходить робот. По-третє, тексти пишуть люди, тому сайтів, де є мільйони корисних і осмислених сторінок, вкрай мало. І якщо сайт готовий віддати, скажімо, мільярд документів, значить, вони генеруються скриптом і не завжди прийнятні для людей. В результаті роботу доводиться вибирати, які сайти обходити частіше, які рідше. Він намагається уникати індексації техногенного сміття, намагається відрізняти «ще один сайт» від «унікального корисного сайту».
Читати повністю
За допомогою нехитрого конструктора pagerank decoder розібратися скільки одна сторінка дасть іншій PagrRank`a зовсім нескладно: тут можна зобразити будь-яку перелинковку і побачити чи буде від неї толк.
Читати повністю
Що необхідно врахувати вже на етапі створення сайту, щоб він був цікавий пошуковим системам, зокрема Яндексу?