WikiWiki 페이지 통계 ---- [[NoSmoke:노스모크페이지통계]]에 사용된 [[Perky]]씨의 [[http://openlook.org/cvs/snippets/wikistat/|WikiStat]]프로그램을 약간 수정하여, 본 BioinfoWiki의 페이지통계내는데 활용하고자 함. [[Perky]]씨한테서 졸라서 받고는 일단 NoSmokeMoinMoinBsn에 올렸다. 매크로로 쓸까. 내부유틸로 쓸까 생각하면서 소스코드를 봤는데... 이긍 만만치않군. 퍼키씨 코딩스타일은 [[Hacker]]스타일같다. 일단, 천천히 소스분석먼저... 그리고, RegularExpression수정... 결과페이지는 WikiStat에다가 HierarchicalWikiWiki로하고, 궁극적으로, 나 자신만의 페이지분석 프로그램으로 발전시킬 계획. 프로그램수정중인 내용은 [[ViewCvs:NoSmokeMoinMoin/wikistat]] ---- === WikiStat of BioinfoWiki === * [[WikiStat/NoWay]] * [[WikiStat/NoCategory]] * [[WikiStat/ExtendedOrphaned]] * [[WikiStat/Category]] * [[WikiStat/Homepage]] * [[WikiStat/MostWanted]] (현재 가동되지 않음 --[[yong27]], 2005-01-12) ==== log ==== * standalone형태로 수정 --[[yong27]], 2003-01-20 * 2차 가동 --[[yong27]], 2003-03-05 * 1년만에, 근데, 에러남 --[[yong27]], 2004-04-20 {{{ File "/var/www/html/moin/MoinMoin/wikistat/pathfind.py", line 44, in __call__ r = self(lnk) RuntimeError: maximum recursion depth exceeded }}} === 작동원리 === 1. getwiki.py에서 [[HTTP]]로 data디렉토리 밑에 각페이지들의 원본txt를 다운로드받는다. 1. genindex.py에서 .index로 [[BSD]] [[Database]]를 만든다. PageName을 키로, linked pagename list를 value로 피클링한 데이터베이스이다. 1. wikistat.py에서 .index파일을 이용하여 다음의 결과파일들을 피클링하여 만든다. * .pagedb * .links * .category * .backlinks * .wanted * .wikipath 1. formatstat.py에서 각 결과파일들을 이용하여 Wiki포맷의 결과 txt파일을 만든다. * stat-noway.txt * stat-nocategory.txt * stat-mostwanted.txt * stat-category.txt * stat-homepage.txt ---- CategoryWikiWiki