<br><br><div class="gmail_quote"><div style="word-wrap:break-word"><div><div>On 2013-05-23, at 12:44 PM, <a href="http://am.ascb.org/dora/">http://am.ascb.org/dora/</a> wrote:</div><br><blockquote type="cite"><span style="text-indent:0px;letter-spacing:normal;font-variant:normal;text-align:-webkit-auto;display:inline!important;font-weight:normal;float:none;line-height:normal;text-transform:none;font-size:14px;white-space:normal;font-family:&#39;Trebuchet MS&#39;,Arial,Helvetica,sans-serif;word-spacing:0px"><i>&quot;clearly highlight, especially for early-stage investigators, that the scientific content of a paper is much more important than publication metrics or the identity of the journal in which it was published.&quot;</i></span></blockquote>
<br></div><div><div>Of course it is absurd to use the journal impact factor as a proxy for (1) journal, (2) article or (3) author quality -- although it has to be admitted that in most fields there is a positive correlation (though a correlation that is increasingly weak, moving from (1) to (3)). </div>
<div><br></div>Article and author citation counts are better, though still not enough. <div><br></div><div>There are ways in which OA can help research assessment (generating and harvesting rich new metrics of importance, influence and impact), and, of course, maximising access and impact.<div>
<br></div><div>But research first has to be made OA, before OA can generate the rich new metrics.</div><div><br></div><div>I did not sign DORA, however, because of this piece of patent absurdity:</div><div><br></div></div>
<blockquote style="margin:0px 0px 0px 40px;border:none;padding:0px"><div><div><i>&quot;...<span style="font-size:14px;font-family:&#39;Trebuchet MS&#39;,Arial,Helvetica,sans-serif">clearly highlight, especially for early-stage investigators, that the scientific content of a paper is much more important than publication metrics or the identity of the journal in which it was published.&quot;</span></i></div>
</div></blockquote><div><div><span style="font-size:14px;font-family:&#39;Trebuchet MS&#39;,Arial,Helvetica,sans-serif"><br></span></div><div>Of course an article&#39;s quality is more important than metrics or journal name. And what&#39;s in a student&#39;s head is more important than the marks he gets. </div>
<div><br></div><div>But the marks (metrics) are the way to assess what is in a student&#39;s head, when you do not have X-rays at your disposal! </div><div><br></div><div>And of course the journal name matters, because the journal&#39;s track-record for peer review quality standards matters. </div>
<div><br></div><div>Ideally, every single paper written should be read and evaluated by qualified experts (maybe even by God) every time its author&#39;s contributions are assessed. </div><div><br></div><div>But in practice that simply cannot be done, realistically. And that&#39;s what peer review is supposed to have done. </div>
<div><i><br></i></div><div><i>And the journal name has a track-record for peer review standards behind it.</i></div><div><br></div><div>I&#39;ve become allergic to recommendations of the kind I quoted above, because they have so often been used as special pleading for new Gold OA journals, implying that they have an unfair handicap because they don&#39;t have an ISI impact factor, or don&#39;t have a high enough one -- whereas the truth is that <i>they simply have no track record for peer review quality standards</i>, hence there is no way to know what their quality standards are. </div>
<div><br></div><div>(If every paper could in fact be read by a qualified expert every time it enters into an assessment, that would be a solution, but there&#39;s no way on earth that can be practically implemented, so we have to rely on metrics and track records.) </div>
<div><br></div><div>In the Gold OA context, some people have also implied that authors should choose journals on the basis of their economic model (Gold OA) instead of their quality standards -- and that tenure committees should somehow give special compensatory weight to journals without track records, simply because they are OA. I think that is nonsense, and also does a disservice to OA (along lines similar to the way the predatory Gold OA journals do OA a disservice). </div>
<div><br></div><div>The only advice to give to early-stage (or any-stage) investigators is to <i>try to publish in the journal with the highest quality standards your work can meet</i> -- and that their performance assessment committee should weight their work accordingly (if they cannot assign a qualified peer to re-do the peer review every time it is assessed!).</div>
</div><span class="HOEnZb"><font color="#888888"><div><br></div><div>Stevan Harnad</div></font></span></div><br></div></div><br>