ノーベル賞受賞に際して、現在の科学のやり方が本末転倒になっているのではないかということを別ブログで書いた。簡単に言うと、どのような研究がよい研究かということについて考えることなく、インパクトの高い雑誌に発表された論文は優れた研究であるとされていることに問題はないかということであった。よい研究だからどこそこの雑誌に出たというのではなく、その雑誌に出たからよい研究であるとされていて、よい研究の条件にその結果が含まれる論理矛盾に陥っていると指摘した。このような状況になると、成された研究の中味を研究者が吟味し議論することがなくなり、他人任せの評価に委ねることになる。これで本当に画期的な研究が生まれるのか、溌剌とした科学が生まれるのかという疑問を下村脩氏の受賞対象になった研究を見て提示した。また以前に Martin Raff 氏がインパクトの高い雑誌のレフリーのやり方に疑義を呈した時に賛意を示した。
今日届いた10月10日発行の雑誌 Science の Editorial でドイツの Kai Simons 氏が同様の考えを発表している。また同じ号の Letters 欄には NIH の Abner Notkins 氏がインパクト・ファクター (IF) の悪弊を除き科学が本来の道を歩む方法として三つのことを提案している。第一に、研究所はIFを評価の対象とはしない宣誓書を出すこと、第二に研究室のヘッドも同様の宣誓書を作り、メンバーと堅実な研究の進め方についてディスカッションをすること、第三には雑誌社はIFを一切公表しないことである。これらが実行されればかなりの効果は期待できそうである。ただ雑誌の商業主義が今の傾向を煽っているところがあるので実現するかどうかは定かではないが、少なくとも科学者の側だけでもその姿勢を変えることができれば、大きく動き出す可能性は高いのではないだろうか。
以下に Simons 氏の発言の要約をした。詳細は原文を参照願いたい。
-----------------------------
IF が研究の質の反映ではない。雑誌がレビューを取り入れると引用回数が増えるので、雑誌の方がIFをあげる工夫をしている。驚くべきことに訂正の引用まで計算されている。なぜこれほどまでにIFが力を持つようになったのか。それが研究者の論文が評価され、研究費の配分から昇進など研究者や研究所の将来を決めるようになったからである。従ってIFの高い雑誌に出そうとして時間の浪費と研究者のやる気を削ぐことになる。
幸い新しい試みも始っている。Howard Hughes Medical Institute では研究者の選んだ限られた論文について詳細に検討するようになっている。また雑誌の方でも、例えば PLoS One などはある分野への貢献度を主観的に考慮することなく、テクニカルにしっかりしているものであれば掲載することにしている。European Molecular Biology Organization でも研究者のやる気を削ぐようなやり方ではないレビューの方法を導入しようとしている。
どこに発表された論文であろうが、研究そのものの質を研究者が評価しなければならない。しかし、出版社、研究者、研究機構すべてが真剣にこの問題に取り組まなければいつまでもこの数字に怯えることになるだろう。
-----------------------------
Science 10 October 2008:
Vol. 322. no. 5899, p. 165
Editorial
The Misused Impact Factor
Kai Simons*
Research papers from all over the world are published in thousands of Science journals every year. The quality of these papers clearly has to be evaluated, not only to determine their accuracy and contribution to fields of research, but also to help make informed decisions about rewarding scientists with funding and appointments to research positions. One measure often used to determine the quality of a paper is the so-called "impact factor" of the journal in which it was published. This citation-based metric is meant to rank scientific journals, but there have been numerous criticisms over the years of its use as a measure of the quality of individual research papers. Still, this misuse persists. Why?
The annual release of newly calculated impact factors has become a big event. Each year, Thomson Reuters extracts the references from more than 9000 journals and calculates the impact factor for each journal by taking the number of citations to articles published by the journal in the previous 2 years and dividing this by the number of articles published by the journal during those same years. The top-ranked journals in biology, for example, have impact factors of 35 to 40 citations per article. Publishers and editors celebrate any increase, whereas a decrease can send them into a huddle to figure out ways to boost their ranking.
This algorithm is not a simple measure of quality, and a major criticism is that the calculation can be manipulated by journals. For example, review articles are more frequently cited than primary research papers, so reviews increase a journal's impact factor. In many journals, the number of reviews has therefore increased dramatically, and in new trendy areas, the number of reviews sometimes approaches that of primary research papers in the field. Many journals now publish commentary-type articles, which are also counted in the numerator. Amazingly, the calculation also includes citations to retracted papers, not to mention articles containing falsified data (not yet retracted) that continue to be cited. The denominator, on the other hand, includes only primary research papers and reviews.
Why does impact factor matter so much to the scientific community, further inflating its importance? Unfortunately, these numbers are increasingly used to assess individual papers, scientists, and institutions. Thus, governments are using bibliometrics based on journal impact factors to rank universities and research institutions. Hiring, faculty-promoting, and grant-awarding committees can use a journal's impact factor as a convenient shortcut to rate a paper without reading it. Such practices compel scientists to submit their papers to journals at the top of the impact factor ladder, circulating progressively through journals further down the rungs when they are rejected. This not only wastes time for editors and those who peer-review the papers, but it is discouraging for scientists, regardless of the stage of their career.
Fortunately, some new practices are being attempted. The Howard Hughes Medical Institute is now innovating their evaluating practices by considering only a subset of publications chosen by a scientist for the review board to evaluate carefully. More institutions should determine quality in this manner.
At the same time, some publishers are exploring new practices. For instance, PLoS One, one of the journals published by the Public Library of Science, evaluates papers only for technical accuracy and not subjectively for their potential impact on a field. The European Molecular Biology Organization is also rethinking its publication activities, with the goal of providing a means to publish peer-reviewed scientific data without the demotivating practices that scientists often encounter today.
There are no numerical shortcuts for evaluating research quality. What counts is the quality of a scientist's work wherever it is published. That quality is ultimately judged by scientists, raising the issue of the process by which scientists review each others' research. However, unless publishers, scientists, and institutions make serious efforts to change how the impact of each individual scientist's work is determined, the scientific community will be doomed to live by the numerically driven motto, "survival by your impact factors."
-----------------------------------
*Kai Simons is president of the European Life Scientist Organization and is at the Max Planck Institute of Molecular Cell Biology and Genetics in Dresden, Germany.
Aucun commentaire:
Enregistrer un commentaire