Δημοσιεύτηκαν χθες οι διαπιστώσεις της Διεθνούς Μαθηματικής Ένωσης για τις στατιστικές αναφορών επιστημονικών δημοσιεύσεων που χρησιμοποιούνται ευρέως για την αξιολόγηση της διεθνούς επιστημονικής έρευνας.
Από την ανακοίνωση τύπου:
Wednesday, 11 June 2008 – The International Mathematical Union today released the Citation Statistics report. Citation-based statistics, such as the impact factor, are often used to assess scientific research, but are they the best measures of research quality? Three international mathematics organizations have today released a report, Citation Statistics, on the use of citations in assessing research quality – a topic that is of increasing interest throughout the world’s scientific community. The report is written from a mathematical perspective and strongly cautions against the over-reliance on citation statistics such as the impact factor and h-index. These are often promoted because of the belief in their accuracy, objectivity, and simplicity, but these beliefs are unfounded.
Among the report’s key findings:
– Statistics are not more accurate when they are improperly used; statistics can mislead when they are misused or misunderstood.
– The objectivity of citations is illusory because the meaning of citations is not well-understood. A citation’s meaning can be very far from “impact”.
– While having a single number to judge quality is indeed simple, it can lead to a shallow under-standing of something as complicated as research. Numbers are not inherently superior to sound judgments.The report promotes the sensible use of citation statistics in evaluating research and points out several common misuses. It is written by mathematical scientists about a widespread application of mathematics. While the authors of the report recognize that assessment must be practical and that easily-derived citation statistics will be part of the process, they caution that citations provide only a limited and incomplete view of research quality. Research is too important, they say, to measure its value with only a single coarse tool.
Αυτονόητα πράγματα και αναρωτιέμαι γιατί πρέπει να τα υποδεικνύουν μαθηματικοί και όχι κοινωνικοί επιστήμονες… (πάλι ρεζίλι γίναμε). Μπορείτε να βρείτε το πλήρες και πολύ ενδιαφέρον κείμενο της ΔΜΕ εδώ.
η κριτικη ειναι ενδιαφερουσα και θελω να δω τι εχει να πει ο Θεμης Λαζαριδης σχετικα. Αλλα δεν εχω καταλαβει ακριβως τι αντιπροτεινουν οι μαθηματικοι?
Φυσικα το εργο καποιου δεν συνοψιζεται καλα σε κανενα μεμονωμενο νουμερο. Αλλα ειναι προτιμητεο να χηρσιμοποιουμε ad hoc κριτηρια? Το sound judgment φυσικα ειναι καλυτερο απο οποιοδηποτε σκληρο κριτηριο, αλλα πως μπορουμε να εξασφαλισουμε την ορθη κριση απο τους κριτες? Ειδικα οταν μιλαμε για κοινωνικς επιστημες, οχι για κλαδους οπως τα μαθηματικα που μια αποδειξη ειναι ειτε αληθης ειτε οχι.
Στο Φυσικό είχαμε μία κρίση αυτή τη βδομάδα. Έγινε όργιο με τα citations και το h-index (και όχι μόνο). Κάποιος θα έλεγε ότι όπως στα μαθηματικά, έτσι και στη φυσική θεωρητικά τα πράγματα είναι απλά, αλλά η πραγματικότητα είναι διαφορετική. Ειδικά όταν τέτοιοι δείκτες, που μπορούν να έχουν διαφορετική βαρύτητα ακόμα και από πεδίο σε πεδίο μέσα στην ίδια επιστήμη, χρησιμοποιούνται για να κατευθύνουν τις κρίσεις προς όποια κατεύθυνση μπορεί να επιβάλουν άλλα κριτήρια.
Ουσιαστικά το κλειδί είναι το sound judgment, αλλά όταν υπάρχουν μη ακαδημαϊκά κριτήρια ούτε αυτό μπορεί να λειτουργήσει.
Καλά βρε SG μου, δεν είπαν οι μαθηματικοί να καταργηθούν τα h-index και τα impact factors, αλλά να προσέχουμε την χρήση τους (και τις καταχρήσεις τους). Πέρα από τα uncertainties των εκτιμήσεων που δεν δηλώνονται συνήθως σε rankings, το σημαντικότερο πρόβλημα που βλέπω σε επίπεδο τμημάτων είναι η εισαγωγή κινήτρων να εστιάσουν στους δείκτες (προσπαθώντας να βελτιώσουν το σκορ τους) παραμελώντας δραστηριότητες που ίσως είναι πιο risky όσον αφορά τους δείκτες αλλά που τελικά μπορεί να αποδειχτούν πιο σημαντικές για την πρόοδο της εκάστοτε επιστήμης.
Το έριξα μια γρήγορη ματιά. Δεν διαφωνώ με αυτά που λένε. Οι δείκτες δίνουν μια rough idea. Δεν μπορούν να αντικαταστήσουν το expert judgement. Δηλαδή, ποτέ μα ποτέ δεν πρόκειται να δοθούν βραβεία Νόμπελ με βάση το h index. Προς θεού. Σχετική συζήτηση, ειδικά για το h index εδώ.
Academic promotions are too important to be left to the Mathematicians… :D
Νόμιζα τα σημεία που υπογραμμίζουν οι μαθηματικοί ήταν ήδη γνωστά και στους ίδιους τους επαγγελματίες των Scientometrics. Κανείς μα κανείς δεν είπε ποτέ να χρησιμοποιηθούν μόνο συγκεκριμένοι δείκτες και υπολογισμοί για τις προαγωγές, απλά να παίζουν πιο καθοριστικό ρόλο, ιδιαίτερα όταν στα υπόλοιπα «θολά» σημεία οι υποψήφιοι ισοβαθμούν.
Σ’αυτό το συμπέρασμα έχουμε φτάσει εμπειρικά/ερασιτεχνικά ακόμα και στο GUR εδώ και μήνες. Δείτε και τις σχετικές συζητήσεις απ’τον σύνδεσμο του Θέμη.