2007年04月19日

  1. 2001年,我离开的如日中天的《计算机世界》的时候,我说:“《计世》已经在走下坡路了。” 天极网当时的目标就是取代《计算机世界》和《电脑报》。但我的这句话当时连天极网CEO李志高都不信。他认为,我是在说气话。
  2. 1996年之前,我在安徽阜阳人民广播电台当记者。在我们台,比我写稿好的人超过5人以上。尤为让我服气的人,我的同学李伟代,1991年评好搞,她的稿子就是比我写得好。后来她都当上了新闻部副主任了,而我还是普通记者。在我们市,比我写稿好的人超过50人。我们市写稿好的人的大都在《阜阳日报》和宣传部。
  3. 而我来到北京,进入IT界,立即成了很好的撰稿人。没别的原因,是因为IT媒体竞争不激烈,记者竞争更不激烈。1996年之前,《中国计算机》和《计算机世界》都不招收外地户口的员工,感谢张永捷和老总编破例将我招进了《中国计算报》。
  4. 我为什么有机会加入《中国计算机报》?不是因为我多优秀。直接原因是王路办CWeek》,带走了《中国计算报》大部分骨干。《中国计算机报》当时急需采编人员。我记得,和我同时进《中国计算机》的还有很多老头老太太。他们负责一些编辑校对的工作。
  5. 竞争不激烈的地方,人总是容易脱颖而出。1997年,陈彤进入新浪,做网络编辑。现在他做到新浪第二把交椅。现在的网络编辑如果还想做陈彤的梦,肯定是痴人说梦。即便你在编辑功夫上比陈彤优秀10倍也没用。
  6. Copy+Past本来就没什么技巧可言。初中生都能干得很好。现在大到搜索引擎,小到抓站系统,机器也能自动干得很好。为什么还需要每月高工资养着你。人有编辑思想?网络编辑3分钟处理一篇资讯,能有多少思想注入稿件?
  7. 报纸尚可以利用垄断之优势,让其中的编辑记者好过一点。但是,谁都可以办网站,网站编辑在面临没有遮挡的竞争。
  8. 我的朋友Fishman,创业融资无数次,最终成在了《水浒Q传》上。尽管,大家都认为游戏业已经很激烈了,但我认为游戏界的人才竞争不激烈,杀进入的人,很容易脱颖而出。

2007年04月17日

  九点昨晚到5G聊天。他说:“DoNews以互相帮助起家,这个传统,不能丢。”
  DoNews立志成为离用户最近在社区。为了离用户近,我每天忙碌在社区中。我并不喜欢写博客。对于一个记者来说,每天写碎片般的博客是浪费时间。但我必须写,为了DoNews。
  DoNews上人多了。我一个接待不过来了。DoNews的员工就多了起来。我和DoNews的兄弟们说得最多的一句话就是,“不要牛屄。”
  在这个互联网的冬天,谁的心情都不好。这是互联网的冬天吗?只会COPY的编辑,工资恐怕今后只会比民工多一点。那些因为先知先觉而获得的溢价能力,7年来已经用完了。媒体网站将进入残酷的淘汰期。
  我现在痛感到自己所获得的知识和经验,已经严重地贬值了,必须努力在第一线积累起新的知识壁垒。
  怎样为用户创造更多价值?DoNews一定要为他的用户提供看新闻、看爆料之外的价值,这价值在哪里?找不到的时候,真让人心烦。
  我一直认为,人的耐性再好,也没机器的耐性好。
  比如,你试了10次密码不对,机器还会让你试。碰到人早烦了。所以,DoNews一直坚持机器“接客”。但我不是技术出身,是个缺憾。
  牛屄的人不可能对人真正地温和,认清楚自己如此地普通,或许能让我们温和一些?

2007年04月16日

  2006年4月,王乐斩钉截铁地对我说:“征途无法成功。”2006年末,我问王乐:“征途成功了吗?”王乐无奈地说:“征途的成功建立在人性的弱点上。”
  史玉柱之前的游戏认为,现实太丑陋了,所以,要躲到虚拟的游戏中去寻找公平与正义。史玉柱不承认那种公平,他说,那顶多是时间万能。“在这种游戏里,整天闲着没事情泡游戏的青年会欺负没时间练级的白领。”史玉柱认为这是不对。
  有钱且想赚更钱的史玉柱站在有钱人一方,开发出了“金钱万能”的征途,在征途里,有钱人只要肯花钱买道具就一定能PK胜利。金钱万能战胜了时间万能。
  从时间万能到金钱万能,史玉柱让有钱人爽,有钱人当然让他的钱包爽。
  在金钱万能的社会中,还必须有被奴役者,金钱才能万能。所以,征途还要靠发“工资”等办法让没钱的人也在征途里努力地升级,并时刻准备着被一刀劈了。这些人大约就是现实社会中的工人阶级吧。
  我们不能以文学家的操守来要求史玉柱。文学家的追求是千古留名,史玉柱是个商人,他的使命是追逐利润。征途的价值观服从于征途的利润,而征途的利润取决于用户认可,史玉柱唯一要讨好的是用户,用户特别是有钱的用户喜欢什么,我想史玉柱就会顺从用户的意思。
  从征途的成功看,有钱人喜欢金钱万能,没钱人也能接受金钱万能。征途当然还可以在金钱万能的框架下,做出一些金钱万能的例外。就像现实生活中慈善捐款、富家女爱上穷小子等等,给征途凭空添一些希望的亮色。这些亮色不会妨碍征途赚钱,它更多地会存在于穷小子的心中,而非实际发生。

2007年04月12日

《网络编辑师》教学提纲
一、 理论基础
1. 长尾理论
1) Blog是典型的长尾
2) 用户通过“过滤器”阅读自己需要的内容
2. 注意力经济
3. 信息组织学

二、 策划工作
1. 频道与栏目的定位
1) 读者分析
1. 职业
2. 偏好
3. 收入
4. 年龄
2) 关键字分析
1. 用关键字表述定位
2. 确定关键字权重
3. 对关键字进行分类
3) 主分类
1. 内容属性分类
2. 人物分类
3. 企业分类
4. 专题分类
5. 时间分类
6. 作者分类
4) 网站地图
列出尽可能多的通往内容的路径
2. 版面设计
1) W3C标准
1. CSS:层叠样式表
2. DIV:内容容器
2) UI设计
1. 用户研究
2. 交互设计
3. 界面设计
三、 内容工作
1. CMS
内容管理系统容许使用者(End User,一般是作者本人)在文章中增加、修改、管理内容。文章一般是文本格式, 也可能包含标记以包含其他资源(如图形)。系统使用一些规则来对文章的表现格式进行处理,从而使得显示格式可以同内容分离。这样可以灵活改变文本的呈现。
2. Web 2.0
鼓励作为资讯的最终利用者透过分享,使到可供分享的资源变得更丰盛;相反的,过去的各种网上分享方式则显得支离破碎。
3. 原创
1) 采访
就是代替广大的民众前往事情发生的现场,或是接触新闻事件的当事人,并将事情的真相及其代表的意义,透过报导呈现于大众媒体之上,协助媒体达成守望、教育、讨论、娱乐等功能。
2) 写作
1. 整理录音
2. 做小标题
3. 确定主题
4. 构建细节特写
5. 进入叙事
四、 发行工作
1. SEO优化
(Search Engine Optimization,简称SEO)是一种利用搜索引擎的搜索规则来提高目的网站在有关搜索引擎内的提名的方式。由于不少研究发现,搜索引擎的用户往往只会留意搜索结果最开首的几项条目,所以不少商业网站都希望透过各种形式来干扰搜索引击的排序。当中尤以各种依靠广告维生的网站为甚。
2. RSS订阅
一种用于网上新闻频道、网志(weblogs)和其他Web内容的数据交换规范。RSS让网站能够制造内容摘要,并让用户以不同的方式浏览这些摘要,进而访问本站。
3. 交换链接
1) 文字链
2) 标题链
3) 图片链
4. 相关文章
1) 动态智能相关
2) 编辑相关
3) 关键字相关
5. 邮件杂志

 

历史

早期搜寻引擎

搜寻引擎发韧于90年代中期。此时第一代搜寻引擎开始对因特网分门别类。一开始,所有网站员得做的事只有提交所属网站到各家搜寻引擎。这些引擎跑一些蜘蛛机器人(spider)──根据超链结爬过网站的程序──并且储存所找到的资料。搜寻引擎根据标题后处理这些资讯,并且根据这些分析结果提供服务。随著在线文件数目日积月累,越来越多网站员意识到基本搜寻 (organic search, 亦翻为随机搜寻 *注一) 条目的重要性,所以较普及的搜寻引擎公司开始整理他们的列表,以显示根据最洽当适合的网页为优先。搜寻引擎与网站员的战争就此开始,并延续至今。

一开始搜寻引擎是被网站员本身牵著走的。早期版本的搜寻算法有赖于网站员提供资讯,如属哪类、关键字的汇签(meta tag)。当某些网站员开始滥用汇签,造成该网页排名与连结无关时,搜寻引擎开始舍弃汇签并发展更复杂的排名算法。由于数繁不及备载,仅列举数个分析目标如下:

  • 在标题签里的文字,如 <h1>引擎</h1>
  • 域名,如 wikipedia.org
  • 统一资源定位符下属的目录与档名,如 http://zh.wikipedia.org/wiki/Seo
  • 关键字密度
  • 关键字接近度,如 ‘软盘、软碟’ ‘硬盘、硬盘’
  • 图形连结的 Alt 属性,如 <img src="…/powerby_mediawiki_88×31.png" alt="MediaWiki" />

由于这些都还在网站员的眼皮下打滚,搜寻引擎陆陆续续碰到诸多滥用与操纵排名等难题。为了要提供较好的结果给使用者,搜寻引擎必须调适到让他们的搜索结果表现出最适当的结果,而非某些不道德的网络员产生的、只有塞满关键字的无用网页。由此,新种类的搜寻引擎应运而生。

注一:随机搜寻实在是误翻,与原始所指相差太远。

[编辑] 基本搜寻引擎

Google 由两名在斯坦福大学的博士生佩吉 (Larry Page) 和布林 (Sergey Brin) 开始。他们带来了一个给网页评估的新概念。这个概念, 称网页级别 (PageRank), 是从Google 算法[1]重要的开端 。网页级别十分倚赖导入链结 (incoming link) ,并利用这种每个导入某网页的链结相当于给该网页价值投一票的理论建立起逻辑系统。越多导入链结意味著该网页越有“价值”。而每个导入链结本身价值直接根据该链结从何而来的网页级别,以及相反的该页导出链结 (outgoing link) 。

在网页级别帮助下,Google 在服务相关的结果上证明它相当优异。Google 成为了最普遍和最成功的搜索引擎。由于网页级别度量了站点外因子, Google 感到它会比页内因子难以动手脚。

然而道高一呎魔高一丈。网站员们已经开发出对付Inktomi 搜索引擎的链结操作工具和计划。这些方法证明对Google 算法一样管用。许多站集中于交换、买卖大量链接。随著‘网站员寻求获取链结只单单要影响Google送更多流量给该站,而不管是否对站点访客有用否’这种行为增加,网页级别对原始算法的信赖度渐渐被破坏了。

此时,是Google 和其它查寻引擎对广大范围的站外因子仔细检视的时候。开发更加聪明的算法有其他原因。因特网已经膨胀到拥有非技术的广大族群。他们经常无法使用先进的提问技术来取的资讯;而且他们得面对比起发展早期更庞大资料、更复杂的索引。搜寻引擎必须开发具备预测性、语义性语言性启发性算法。

目前,网页级别的缩小版仍然被显示在Google 工具条上,不过网页级别只不过是Google 考虑在网页分级时超过100 个因素里中的一个。

今天,大多数搜寻引擎对它们的如何评等的算法保持秘密。搜索引擎也许使用上百因素在排列目录;每个因素本身和因素所占比重可能不断的在改变。

大部分当代搜寻引擎优化的思路──哪些有效、哪些没效──这些很大部分在于观察与根据内线消息来的猜测。某些优化员得执行控制下的实验以取得不同优化方法的结果。

尽管如此,以下是搜寻引擎发展它们算法时的一些考虑,另,这份Google 专利清单[2]也许读者可猜出他们会走哪条路线:

  • 站点的年龄
  • 自该网域注册后过多久
  • 内容的年龄
  • 新内容增加的规律性
  • 链接的年龄和连接站点的名誉
  • 一般站内因素
  • 负面站内因素 (例如,太多关键字汇标(meta tag),很显然被优化过,会对站点造成伤害)
  • 内容的独特性
  • 使用于内容的相关术语 (搜寻引擎关联到的术语的方式视同如何关联到网页的主要内容)
  • Google网页级别 (只被使用在Google 的算法)
  • 外在链接、外部链接的链结文字、在那些和在站点/网页包含的那些链接
  • 引证和研究来源(表明内容是研究性质)
  • 在搜索引擎数据库里列举的词根与其相关的术语(如 finance/financing)
  • 导入的逆向链结,以及该链结的文字
  • 一些导入链结的负面计分 (或许那些来自低价值页、被交换的逆向链结等)
  • 逆向链结取得速率:太多太快意味著“不自然”的链结购买活动
  • 围绕在导出链结、导入的逆向链结周围的文字。例如一个链结如果被 "Sponsored Links" (赞助商连结) 包围,该链结可能会被忽略。
  • 用 "rel=nofollow" 建议搜寻引擎忽略该链接
  • 在站点该文件的结构深度
  • 从其他资源收集的网格表,譬如监视当搜寻结果导引用户到某页后,用户有多频繁按浏览器的返回钮
  • 从来源像:Google AdWords/AdsenseGoogle 工具条等程序收集的网格表
  • 从第三方资料分享协议收集的网格资料 (譬如监测站点流量的统计程序提供商)
  • 删除导入链结的速率
  • 使用子网域、在子网使用关键字和内容质量等等,以及从这些活动来的负面计分
  • 和主文件语意上的连结
  • 文件增加或改动的速率
  • 主机服务商 IP 和该 IP 旗下其它站点的数量/质量
  • 其他链结站会员 (link farm / link affiliation) 与被链结的站 (他们分享IP吗? 有一个共同的邮递地址在"联络我们 (Contact Us)" 页吗?)
  • 技术细节像利用301重定向被移除的网页、对不存在网页显示404服务器标头而非200服务器标头、适当的利用 robots.txt
  • 主机服务商正常运行时间
  • 是否站点对不同类的用户显示不同的内容 (掩饰 (cloaking))
  • 未及时矫正、无效的导出的链结
  • 不安全或非法内容
  • HTML代码品质,以及错误出现数
  • 由搜寻引擎自他们搜寻结果观察到的实际点击通过率评等
  • 由最常存取搜寻结果的人手动评等

[编辑] 搜寻引擎优化和搜寻引擎之间关系

在第一代搜寻引擎发表后,搜寻引擎操作员变得对搜寻引擎优化社区感兴趣。在一些早期搜寻引擎, 譬如INFOSEEK, 要得到第一名不过是把顶尖的网页代码抓下、放在您的网站、并提交个URL让搜寻引擎立即索引并排名该页这么简单。

由于搜寻本身的高价值和标定性,搜寻引擎和搜寻引擎优化员间自始便存在对抗的关系。最近一次于2005 年召开的AirWeb年会,旨在谈论缩小这种敌对关系差距,和如何最小化某些太过于侵略性优化造成的损坏效果。

某些更具侵略性的优化员产生自动化的站点,或者使用某些最终会让该网域被搜寻引擎扫地出门的技术。而大多数优化公司则销售长期、低风险的策略服务,而且大部分使用高风险战略的优化公司,则在他们旗下的会员点使用、产生商业线索、或者纯内容站点,而非让它们客户站亲身涉险。

这里提供一个使用侵略性优化技术的优化公司让他们客户被取缔的案例。华尔街时报描述了某个使用高风险技术和涉嫌没有透露客户得承担那些风险的公司[3]。Wired报告了该公司起诉某部落格,因为提及该公司被取缔[4]。Google 的克特斯 (Matt Cutts) 稍后确认Google 确实取缔了Traffic Power以其他们的客户群[5]

某些搜寻引擎对搜寻引擎优化产业提供了援助,而且是常常是优化会议和研讨会的赞助商和来访贵宾。实际上,自从付费收录 (paid inclusion) 降临,一些搜寻引擎现在在网站优化社区的健康有了既得利益。所有主要搜寻引擎都提供资讯/指南以协助站点优化: GoogleYahoo, 和MSN 。Google提供了Sitemaps 程序帮助网站员学习如果Google 有任何问题检索他们的网站时该如何做,并且提供Google流量与您网站关系间无价的丰富资料。雅虎的SiteExplorer,旨在提供一个免费方式递交您的URL, 该方法能让你决定打算让雅虎索引多少页、索引多深。雅虎的 Ambassador Program 与Google的 Google Advertising Professionals 提供专家级的认证。

[编辑] 搜寻引擎入手

新站点不需要"提交"到搜寻引擎才能登记上市。一个来自于以建立好的、其他站点的简单链结就会让搜寻引擎拜访新站点,并且开始‘爬’过该站内容。它可能得花几天甚或几周从这样一个已建立站点取得连结,并使所有主要搜索引擎开始拜访并索引新站点。

一旦搜索引擎发现了新站点,它一般将拜访和开始索引该站,直到所有标准的 <a href> 超连结被链结的页索引到为止。只能透过Flash或JavaScript才能拜访的链结可能不会被蜘蛛机器人找到。

当搜索引擎的蜘蛛机器人爬过一个站点时会取决相当数量的不同因子,并且该站的许多页可能不会被索引到除非它们网页级别、连结、或流量增加到一个程度。从站点的根目录到该页的距离,以及其它比重考量,也许也是决定是否该页得到检索的因素。Cho et al.(Cho et al. 1998) [6] 描述了哪些页会被拜访、哪些会收入搜寻引擎索引的决定标准。

网站员可透过在网域根目录里标准robots.txt档案指示蜘蛛机器人不索引某些文件或目录。标准的实现要求是搜索引擎在拜访这个网域时参考这个文件,虽然搜索引擎的蜘蛛机器人当它拜访某站点网页时将保留这个文件的快取拷贝,并且更新速度没像网站员那么快。网站发展人员可能使用这个特性防止某些页,譬如购物车或其它动态、特定使用者的内容出现在搜索引擎结果中,并且防止机器人进入死循环和其它机器人陷阱。

对于某些有偿提交的查寻引擎(像雅虎),支付象征性费用提交也许会节省一些时间,虽然雅虎有偿提交方案不保证提交人/公司包括在他们的查寻结果中。

[编辑] 白帽法

搜寻引擎优化的白帽法包括遵循搜寻引擎哪些可接受哪些不能接受的指导方针。他们的建议一般是为用户创造内容,而非搜寻引擎、是让这些内容易于被蜘蛛机器人索引、并且不尝试对搜寻引擎系统耍花招。经常网站员于设计或构建他们的网站犯了致命错误、疏忽地"毒害" 该站以致排名不会很好。白帽法优化员企图发现并纠正错误,譬如机器无法读取的选单、无效链接、临时改变导向、或粗劣的导引结构。

因为搜寻引擎是以文本为中心,许多有助于网页亲和力的同样手段同样便利于搜寻引擎优化。这些方法包括最佳化图形内容、包括ALT 属性、和增加文本说明。甚至Flash动画可于设计该页时包括替代性内容──这本来用来给访客无法阅读Flash的环境用的──来帮助优化。

这里是一些搜寻引擎认为适当的方法:

  • 在每页使用一个短、独特、和相关的标题。
  • 编辑网页,用与该页的主题有关的具体术语替换隐晦的字眼。这有助于该站诉求的观众群,在搜寻引擎上搜寻而被正确导引至该站。
  • 在该站点增加相当数量的原创内容。
  • 使用合理大小、准确描述的汇标,而不过度使用关键字、惊叹号、或不相关标题术语。
  • 确认所有页可透过正常的链结来访问,而非只能透过JavaJavaScriptMacromedia Flash应用程序访问。这可透过使用一个专属列出该站所有内容的网页达成(网站地图(SiteMap))
  • 透过自然方式开发链结:Google不花功夫在这有点混淆不清的指南上。写封电子邮件给网站员,告诉他您刚刚贴了一篇挺好的文章,并且请求链接,这种做法大概很可能为搜寻引擎所认可。
  • 参与其他网站的网络集团(译按:web ring 指的是有相同主题的结盟站群)──只要其它网站是独立的、分享同样题目、和可比较的品质。

[编辑] 黑帽法

主条目:垃圾索引

垃圾索引(Spamdexing)意指透过欺骗技术和滥用搜索算法来推销毫不相关、主要以商业为著眼的网页。许多搜索引擎管理员认为任何搜索引擎优化的形式,其目的用来改进网站的页排名者,都是垃圾索引。然而,随时间流逝,业界内公众舆论发展出哪些是哪些不是可接受的、促进某站的搜索引擎排名与流量结果的手段。

因为搜寻引擎以高度自动化的方式运作,网站员通常可以利用某些未被搜寻引擎认可的手段、方法来促进排名。这些方法经常未被注意除非搜索引擎雇员亲临该站点并注意到不寻常活动、或在排名算法上的某个小变化导致站点丢失以过去方式取得的高排名。有时某些公司雇用优化顾问评估竞争者的站点、和"不道德的" 优化方法向搜寻引擎报告。

垃圾索引经常与合法的、不介入欺骗的搜寻引擎优化技术搞混。垃圾索引专注于让该网站得到更多的曝光率,而非他们选用的关键词,这导致令人不满的搜寻结果;相对的,优化则专注于他们希望得到的排名,基于特定目标关键字上;这导致令人满意的搜寻体验。

当这些不好的垃圾索引被发现时, 搜寻引擎也许会对那些被发现使用不道德的优化手段者采取行动。在2006 年2月,Google拿掉了BMW 德国站和Ricoh 德国站,因为他们用了这些方法[7]

[编辑] 搜寻引擎优化与行销

当这篇文章倾向建立间的搜寻引擎优化师间戴哪种颜色帽子的区别,这些产业写照实际上对于某些促成业界某些影响巨大成就部分的工作者著墨不多。

有相当多的优化实践者只是认为把搜寻引擎当作该站的另一个访客,并设法让该站点亲和如同真正访客拜访那些网页一般。他们的工作焦点不集中于将许多术语于搜寻引擎排名最高,而是帮助站点拥有者达到该站点的商业目标。这也许以实现导引基本搜寻结果、甚或利用在搜寻引擎做有偿广告的形式到某些页。至于其他页,建立高品质网页吸引参与和说服, 阐明技术问题,这些手段可让搜寻引擎继续爬过并检索这些站。另,设定分析程序可以让网站主衡量该网站成就,并且让该站更亲和更有用。

这些搜寻引擎优化员可能是某组织的一员,或者是个顾问,而搜索引擎优化也许只是他们每天例行工作的一部分。通常他们有关搜寻引擎功能的知识来自于论坛、部落格、一般的会议和研讨会间的互动和讨论主题、甚或经由在他们自己的站点实验获得。目前极少的大学课程涵盖电子交易观点的网上行销,可能肇因于网络上一日数变的关系。

当许多人检阅和致力于符合搜寻引擎指南时──这可帮助某人于网络上的成功打造坚实基础──跟随这些指南的结果实际上不过只是个开始。许多人认为搜索引擎行销不过是个搜寻优化下较大一点的支部而已,但它可能是许多主要集中于搜寻引擎优化的老兵,集合了更多更多的行销灵感所带来的成就。搜寻引擎因为认知到这一点,他们扩展了搜寻引擎覆盖面,包括了RSS提供元、录影搜寻、地方结果、地图、和更多他们必须提供的功能。

[编辑] 法律案例

2002 年, 搜索引擎操作者SearchKing在俄克拉何马法院提出了诉讼,反对搜索引擎Google。SearchKing的要求是, Google防止垃圾索引的手段构成了一条不公正的商业惯例。这也许可想像为垃圾电子邮件营销者控告反垃圾电子邮件者,如同许多反对地图以及其他DNS黑洞表(DNSBL)的案例。2003年1月,法院发布了一个Google胜诉的判决摘要[8]

[编辑] 高品质网站通常排名很优

对许多有心于最大化网站附加价值的网站员们,可阅读由搜寻引擎出版的、以及W3C发行的编码指南。如果该指南被遵循,站点频繁地更新,有用、原创的内容,和建立几个实用、有意义的导入链接,获得相当可观数目的基本搜寻流量不是甚么难事。

当站点拥有有用的内容,其它站点员自然而然会连结至该站,进而增加访客它的网页级别和访客流。当访客发现一个有用的网站,他们倾向于利用电子邮件或者及时讯息连结介绍给其它访客。

总括来说,增进网站品质的搜寻引擎优化实现很可能比直接寻找操控搜寻排名手段的短期实现要活得长久。顶尖的搜寻引擎优化员们找寻的目标与搜寻引擎追求发扬光大的东西二者不雷而同。他们是:相关性、对他们用户有用的内容。

2007年04月10日

 

1、  Google做输入法,是流量不够的被逼无奈。

2、  搜狐一定要告它,是唯一利器不保的被逼无奈。

3、  百度进军日本,进军门户,是增长乏力的被逼无奈。

4、  互联网相比传统企业更是赢家通吃,所以,必将进入你死我活的被逼无奈。

5、  既然是较量,必将污泥仍到对方脸上,然后,被逼无奈地称自己“不作恶”。

6、  我知道,谁都不容易。但请不要假设自己就比别人高尚。

1、下载地址: http://free.donews.com/attachment.php?aid=2180

2、感谢 Jeff Chen。

3、感谢Netbee。

4、请大家品评。

5、上DoNews,用DoNews自己的浏览器。

 

 

1、  下载地址:http://www.mmear.com/staticPages/it.htm

2、  我们今后,还会制作一些视频的讨论网络媒体的节目,大家在形式上有什么建议。

3、  感谢木耳网 CEO 牟正蓬。

2007年04月03日

 

1、  过滤器的所有权和控制权当然在网站手中。但过滤器的价值必须通过更多用户使用才能实现。用户会使用一个不公正的过滤器吗?

2、  所以,Google说不做恶。所以,天极质疑百度总将旗下的天空下载放到天极下载前面。

3、  我不相信,任何搜索引擎能做到100%公正,包括Google,在门户和众多小网站之间,Google明显地在支持众多小网站,如果仅仅以网页质量而论,大门户的网页会永远地排在前面,小网站永远没有出头之日,但如果只有门户,那还要搜索引擎干嘛?搜索引擎只有将众多的小网站都扶植起来,搜索引擎自身的价值才能更大的展现出来。Google更多地支持中小网站,和做恶不做恶,没关系,它自己的商业模式使然。

4、  Google一定要打出不做恶的旗帜,借以让更多的用户认可Google这个过滤器。

5、  越小的网站的过滤器,越有可能急功近利地只照顾网站利益,而忽视用户利益。网站过滤器始终要在用户利益和网站利益面前,进行选择,做一个平衡。不要讲好听的用户利益至上挂在嘴边,这句话作为口号可以,不是做事的手册。比如,RSS是输入全文,还是输入摘要,还是只输入标题。全文当然最方便用户,但输入全文不利于本网站PV的提升,输出摘要固然可以提升本网站的访问量,但用户可能放弃你的RSS,转而去订阅输入全文的,最后是什么都得不到。

6、  同质化的过滤器必须更多地照顾用户利益,所以,竞争会使用户得到越来越多好处。竞争会使网站尽管控制着过滤器,但它必须用自己手里的过滤器为用户服务,就像用户控制着过滤器一样。

7、  编辑部是新闻的过滤器,新闻竞争,使得编辑部过滤器必须平衡,顺从读者意志,而不是更多的编辑意志。

2007年04月02日

 

1.         2000年,CSDN办过一次软件英雄会。在国际会议中心。第一次听蒋涛演讲,没想到他竟然那么地能讲。将共享软件的历史和商业模式讲得头头是道。

2.         那次会议,我见到了华军。从那以后,得到了华军很多帮助。

3.         那次会议,我认识了岑绍辉,后来去沈阳,他带不游览,请我吃饭,至今难忘。岑绍辉十分低调,但我知道他的本事。

4.         这次会议,我要主持一个创业英雄论坛。嘉宾是:陈大年(盛大高级副总裁)、周鸿祎(奇虎 董事长)、徐晨 GOBI 投资人)、张洪禹 PPStream CEO)、孙辉 Tangram项目创始人)、徐易容 (抓虾网 CEO)。张洪禹、孙辉不太熟悉,我要先做点功课。

5.         更让人期待的是CSDN 150万会员中特别邀请108位社区技术英雄。CSDN这个过滤器,将108人筛选出来,给了这108人抛头露面的机会,这108人同时也成了投资人、创业者、合作者的机会。

6.         我和蒋涛是好朋友。1997年一见如故,1999年我向蒋涛贡献了CSDN这个名字。2005年,我创业,蒋涛给我腾了一间办公室,并支持了技术开发。我不懂技术,CSDN我一直帮不上忙。