Харьковчане будуць удевлены, калі даведаюцца, як іх всенародноизбранный запісваў сваю перадвыбарную прамову.
Каментары, як кажуць, наўрад ці - відэа кажа само за сябе :)
чытаць цалкам
WordPress просты і мінімалістычны, але ў той жа час менавіта ён застаецца адным з найбольш магутных і гнуткіх рухавічкоў. Аднак, калі ўсталяваць WordPress з наборам убудоў па-змаўчанні, то ён не занадта прыстасаваны для SEO - аптымізацыяй трэба займацца практычна з нуля. Гэта значыць трэба было - зараз гэтую працу за вас выканае новы убудова WPSEO.
чытаць цалкам
Web 2.0 Magazine прадставіў калекцыю css-афармленняў для тэкставых банэраў Google Adsense. Прычым, гэта толькі афармленні - значыць, што вам не прыйдзецца кіраваць код Adsense, тым самым парушаючы ліцэнзію праграмы. Даволі прыгожы і бяспечны спосаб павялічыць "клікабельнасць" аб'яваў легальным спосабам.
чытаць цалкам
У мяне такое адчуванне, што хлопцы з Яндэкса больш захопленыя барацьбой з сошнікі, чым паляпшэннем пошуку. Цяпер яны вырашылі, што бачыць спасылкі на сайт - гэта занадта вялікі гонар для вэбмайстроў. Цытата з афіцыйнага блога пошукавіка:
Мы доўгі час падавалі унікальныя магчымасці для вэб-майстроў, у прыватнасці, выдаючы поўны спіс старонак, якія змяшчаюць спасылку на зададзеную (аператар #link), дазваляючы шукаць словы, якія змяшчаюцца толькі ў тэкстах спасылак на пэўную старонку (link # anchor), і нават дапушчаючы іх спалучэнні з адвольнымі пошукавымі аператарамі і словамі.
чытаць цалкам
Чуткі пра тое, што ўжо не з'яўляецца свабодным ва ўсіх адносінах крыніцай інфармацыі хадзілі даўно. А цяпер яны падсілкаваліся і некаторымі дадзенымі, якія відавочна сведчаць пра цэнзуру ў онлайн-энциклопедии.Как высветлілася, шэраг буйных амерыканскіх карпарацый на чале з ЦРУ ўжо не адзін месяц рэдагуюць матэрыялы Wikipedia.
Даследчык Каліфарнійскага тэхналагічнага інстытута, Вирджил Грыфіт, распрацаваў праграму Wikipedia Scanner, прызначаную для апазнання карыстальнікаў, якія займаліся рэдагаваннем ў Wikipedia. Вынікі даследавання былі несуцяшальнымі: па словах Вирджила, змены ў артыкулы энцыклапедыі часта ўносіліся зацікаўленымі асобамі: "Вядома, мы не можам дакладна ўстанавіць асобу чалавека, які рэдагаваў артыкулы. Аднак мы амаль са стоадсоткавай дакладнасцю можам даведацца, з якой арганізацыі быў рэдактар ".
чытаць цалкам
Акрамя свайго прамога прызначэння - пошуку інфармацыі, на Tafiti можна захоўваць вынікі пошуку і нават абменьвацца імі з іншымі карыстальнікамі. Вынікі пошуку можна пакінуць да лепшых часоў на адмысловых «паліцах» у выглядзе каруселі ці дрэва.
На Tafiti.com ужо даступны пошук у навінах, малюнках, пошук па кнігах і ў інтэрнэт.
Акрамя таго, вынікі пошукавых запытаў можна публікаваць у блогах і перадаваць па электроннай пошце.
чытаць цалкам
Што не кажыце, а сайт - гэта вялікая адказнасць. Задумайцеся, бо Вы вызначаюць змест артыкулаў на ўласным сайце, а значыць і несяце поўную адказнасць за кожнае слова на ім. Больш за тое, Вы несяце адказнасць і за каментары да вашых текстам.С юрыдычнага пункту гледжання, Інтэрнэт часта разглядаецца па-за законам. Парушэнні автороского правы ў сетцы часта недаацэньваюцца і лічацца звыклай справай. У асноўным проста таму, што ўладальнікі сайтаў не ведаюць, што яны ўвогуле парушаюць закон.
чытаць цалкам
Звычайна выбар рухавічка для сайта - гэта выбар паміж функцыяналам і прастатой адміністравання. Пацешна, што найбольш папулярнымі CMS там не ўдаецца знайсці ідэальнага спалучэння гэтых якасцяў, а такім чынам ідэальнага рашэння для абсалютна ўсіх сайтовладельцев не існуе - кожная сістэма добрая па-свойму, таму да выбару трэба падысці дастаткова сур'ёзна.
Для прыкладу давайце паглядзім на моцныя бакі самых папулярных сістэм кіравання кантэнтам
чытаць цалкам
Публікуем інтэрв'ю кіраўніка аддзела вэб-пошуку кампаніі Яндэкс для чэрвеньскага нумара часопіса "IT спец".
Наглядны і паўсядзённы пры мер - кампанія вырашыла стварыць свой уласны сайт для прыцягнення патэнцыйных кліентаў. Што неабходна ўлічыць ужо на этапе стварэння сайта, каб ён быў цікавы пошукавым сістэмам, у прыватнасці Яндэксу?
Робат пошукавай сістэмы - праграма, якая заходзіць на сайт на тых жа правах, што і выпадковы, але вельмі цікаўны карыстальнік. Ён даведаецца аб сайце па спасылках на іншых сайтах або калі яму скажуць пра існаванне сайта прама (з дапамогай http://webmaster.yandex.ru/). Аналізуючы старонку, на якую дзесьці спаслаліся, робат спрабуе выявіць, якія яшчэ дакументы ёсць на сайце, спампаваць іх, праіндэксаваць, знайсці наступныя дакументы, іншы сайт ... і так да бясконцасці.
Некаторыя сайты баяцца занадта актыўнай індэксацыі. Па-першае, яна можа стварыць вялікі трафік, за які ўладальнік сайта плаціць. Па-другое, калі ў сайта ненадзейны хостынг, а скрыпты нядбайна напісаны, інтэнсіўнае запампоўка старонак робатам можа перагрузіць сайт і карыстальнікі не змогуць да яго "дастукацца", пакуль яго абыходзіць робат. Па-трэцяе, тэксты пішуць людзі, таму сайтаў, дзе ёсць мільёны карысных і асэнсаваных старонак, вельмі мала. І калі сайт гатовы аддаць, скажам, мільярд дакументаў, значыць, яны генеруюцца скрыптам і не заўсёды прымальныя для людзей. У выніку робату прыходзіцца выбіраць, якія сайты абыходзіць часцей, якія радзей. Ён спрабуе пазбягаць індэксацыі тэхнагеннага смецця, стараецца адрозніваць «яшчэ адзін сайт» ад «унікальнага карыснага сайта».
чытаць цалкам
Пры дапамозе няхітрага канструктара pagerank decoder разабрацца колькі адна старонка перадасць іншы PagrRank`a зусім нескладана: тут можна адлюстраваць любую перелинковку і ўбачыць ці будзе ад яе толк.
чытаць цалкам
Што неабходна ўлічыць ужо на этапе стварэння сайта, каб ён быў цікавы пошукавым сістэмам, у прыватнасці Яндэксу?