أبحاث الرفوف.. جناية التصنيف ووهم الأثر – أخبار السعودية
في حادثة لا تزال عالقة في ذهني منذ قرابة اثني عشر عاماً، خلال دراستي لمرحلة الدكتوراه، كنا نتلقى محاضراتنا من مختصين مختلفين في كل محاضرة؛ وهو تنوع يضفي طابعاً جاذباً ومثرياً. وهنا وقفة تأمل عابرة تبرز إيجابيات هذا التنوع كبديل لنمط المحاضر الأوحد طوال الفصل الدراسي.
ذات يوم، كان المحاضر جراحاً مخضرماً مختصاً في جراحة الدماغ وعمليات الصرع. وبسبب ازدحام جدول عملياته، أُقيمت المحاضرة في السادسة والنصف صباحا!
وأثناء شرحه العميق عن تشخيص الصرع بالصور الطبية، تطرق عرضاً لـ«البحث العلمي» ومفهوم الجودة والأثر الحقيقي، طارحاً تساؤلاً جوهرياً عن سيل الأبحاث المنشورة التي أغلبها بلا أثر. وضرب مثالاً بمهندس الأشعة المقطعية «جودفري هاونسفيلد»، الذي لم ينشر سوى أوراق قليلة؛ إحداها تشرح فيزياء الجهاز المُبتكر، والأخرى تطبيقه السريري.
بعض المواقف والكلمات لا تُنسى، فلو سُئلت اليوم عن المحتوى الطبي لتلك المحاضرة قد لا تسعفني الذاكرة، لكن تلك اللفتة الصباحية العابرة العارضة لا تزال تقفز إلى مخيلتي وأنا أتأمل تساؤله مع واقعنا متسائلاً: في أي الفريقين نصطف؟ كثرة الأبحاث مع قلة جدواها الواقعي، أم قلتها مع عظيم أثرها؟
هنا تبرز مفارقة لافتة تعاني منها بعض بيئاتنا الأكاديمية والبحثية؛ وفرة هائلة في الإنتاج المنشور، يقابلها عجز مقلق في الأثر الملموس. الإشكال ليس في ندرة العقول المتميزة أو غياب التمويل، بل في الانحراف الصامت لبوصلة البحث؛ حيث تحولت «مؤشرات الأداء» من أداة لقياس جودة البحث إلى غاية بحد ذاتها. فكثير من المؤسسات التعليمية والراصدة للجودة تقيّم الأبحاث العلمية بمؤشرين: عدد المنشورات وعدد الاستشهادات، بينما يغيب الأهم: الأثر الفعلي لها. وفي أروقة هذه المنشآت، يتكرر مشهد مألوف: احتفال صاخب بنشر ورقة علمية، أو تفاخر بدخول تصنيف عالمي، أو تكديس ورقي لبراءات الاختراع.
ظاهرياً، نحن أمام حراك مبهر؛ لكن حين نبحث عن أثر هذه المخرجات في مصانعنا ومستشفياتنا واقتصادنا، نصطدم بفراغ يطرح سؤالاً يستحق المواجهة وقد نخشى إجابته: هل الكتابة لـ«نترقى» أم لـ«نرتقي»؟
ولعل جذر المشكلة يكمن في اللوائح المنظمة للبحث، ويمكن تلخيص أبرز الفجوات فيما يلي:
• ارتهان مقياس نجاح المشاريع البحثية بالنشر في مجلات مصنفة فقط، مع غياب شبه تام للدعم المبني على خروج هذه الأبحاث بـ«منتج» بأثر ملموس. ومثال ذلك الأهمية في الإنجاز تُعطى لمكان النشر أكثر من محتواه.
• سعي محموم لدفع تكاليف باهظة لتسجيل براءات اختراع لحصد نقاط التصنيفات العالمية، لتنتهي كشهادات معلقة على الجدران دون تحول إنتاجي أو تسويق تجاري. مع الإحاطة بأن تسجيل البراءة ورقياً قد يكون أسهل من نشر ورقة علمية محكمة – ويمكن الاستشهاد بذلك عبر الرجوع بالتاريخ قليلاً لنجد أن بعض الجامعات، ارتفعت بها نسب براءات الاختراع بشكل مفاجئ في إحدى السنوات، وانطفأت هذه الثورة لاحقاً، غالباً بسبب الشح المادي.
• ميل بعض الجهات الداعمة للبحث لرفض الأفكار الخارجة عن الإطار الاعتيادي التي تكسر القوالب، وتفضيل الأبحاث التراكمية «الآمنة» لضمان تدفق النشر بلا مجازفة.
• ارتباط المواد المنظمة للترقيات والتميز بالكم والتصنيف أكثر من الأثر. فمثلاً في نقاط الترقيات الأكاديمية، وهذه واقعة عشتها، النشر كباحث منفرد في مجلة ذات تصنيف متدنٍ جداً يقاس بعلو مقارنة ببحث مع مجموعة علماء مختصين متقدمين في التخصص ومن دول مختلفة وفي مجلة ذات تصنيف عالٍ جداً، وهنا علة أخرى عابرة فبذلك يتم الحث أيضاً على البعد عن العمل التعاوني المشترك!
• الاعتماد المبالغ فيه لدى البعض على مقاييس تعتمد معظم خوارزمياتها على حجم الاستشهادات، كقائمة ستانفورد لأفضل 2% من العلماء «قائمة لا علاقة لها بمسماها»، وغيرها من القوائم التي لا تعكس بالضرورة الأثر المجتمعي أو الابتكار الاقتصادي الفعلي للباحث.
• محدودية تنوع التخصصات في الهيئات واللجان المعنية بالتوجهات البحثية المدعومة، مما يجعل هذه التوجهات تدور في فلك اختصاصات مشرعيها.
نظرة تاريخية ووقفة على بعض الأحداث البحثية:
• ركز المخترع «هاونسفيلد» على بناء «المنتج – جهاز الأشعة المقطعية»، ولم ينشر ورقته التأسيسية إلا عام 1973 بعد إثبات نجاح جهازه سريرياً، لينال لاحقاً جائزة نوبل في الطب.
• رُفضت الورقة البحثية الأولى للعالم «بول لاوتربور» عن ابتكاره المتعلق بالتصوير بالرنين المغناطيسي عام 1973 من مجلة «نيتشر» بحجة ضعف جودة الصور، قبل أن تتراجع وتنشر الورقة التي غيّرت وجه الطب وجلبت له نوبل.
• رُفضت ورقة «بيتر هيغز» التي تنبأت ببوزون هيغز من مجلة رسائل في الفيزياء بحجة أنها «لا صلة واضحة لها بالفيزياء»، قبل أن تُثبت صحتها بعد 48 عاماً في مصادم سيرن، وينال عنها نوبل في الفيزياء عام 2013. والمفارقة أن هيغز نفسه صرّح عشية تسلمه الجائزة بأنه لن يحصل على وظيفة أكاديمية في النظام الحالي لأنه لن يُعتبر «منتجاً بما يكفي»، فقد نشر أقل من عشر أوراق بعد عمله الرائد.
• تشير بعض الدراسات إلى أن تكلفة تسجيل براءات الاختراع في عدد من الجامعات تفوق عوائدها المالية، إذ كشفت دراسة حديثة أن جامعة أمريكية واحدة خسرت أكثر من تسعة ملايين دولار سنوياً على الملكية الفكرية بعائد سلبي بلغ نحو -98% — براءات وُلدت للتصنيف لا للتصنيع.
• أثبتت بعض الدراسات الأكاديمية أن ضغط النشر المستمر له تكاليف حقيقية على الابتكار، وأوصت بعدم ربط الأمان الوظيفي بمقاييس الإنتاجية الكمية وحدها.
• تؤكد دراسة ببليومترية «علم قياس الإنتاج الفكري» أن أكثر من 80% من حائزي نوبل بين عامي 2010 و2019 لم يكونوا ضمن قوائم «الباحثين الأكثر استشهاداً»، مما يعني أن هذه المقاييس لا تكشف بالضرورة عن العقول الأكثر تأثيراً.
بكل تأكيد، هذا الطرح لا يقلل من أهمية «النشر النظري أو الروتيني المعتاد»، فهو مطلوب ومهم كقاعدة للمعرفة. غير أن الإشكالية تكمن في الخلل الاستراتيجي بالتركيز بين مسارين: الأول «مسار النشر الروتيني» الذي يستحوذ على الغالبية العظمى من اهتمام الباحثين والمنشآت وتكون معدلاته مرتفعة، والثاني «مسار النشر التطبيقي» ذو الأثر الملموس الذي لا يزال يشهد شحاً واضحاً. وهنا لا نلغي أهمية الأول، ولا نوقع اللائمة على الباحث، فهو لكي يتقدم يجب أن يلتزم ويجاري الأنظمة القائمة، وطالما تتاح للبعض طرق مختلفة للوصول، البعض منها قصير وسريع بغض النظر عن تأثيره، سيتم اتخاذه. والنشر بحد ذاته ليس المعضلة، وتنوعه مطلب، لكن هي نسبة وتناسب، كم من تلك الأبحاث وقع لها أثر ملموس وهل يتوافق ذلك مع التسهيلات الداعمة لها؟ وأين الفجوة؟
جُلّ هذه الفجوات تقع على عاتق المؤسسات والبيئة المرسومة بها عبر حوكمة لوائح وتوجهات بحثية مقننة صقلت ثقافة بحثية محدودة. المؤسسة الحية هي التي تتحول من «مصنع للورق» إلى «منصة لحل المشكلات». وتجاوز هذا الهدر يتطلب تحولات واضحة في فكر المؤسسات الناظمة والهيئات ذات العلاقة واللوائح المتعلقة بها حتى تؤثر إيجاباً في الفكر البحثي وإنتاجيته وثقافته، ومن أبرزها:
• ربط التمويل البحثي بالاحتياج التنموي ذي الأثر الملموس، بحيث يكون الاستثمار موجهاً لـ«الجدارات التطبيقية» وليس لمجرد الوصف النظري.
• تطوير معايير اللوائح والأنظمة لتمنح وزناً إضافياً جوهرياً للابتكار التقني ذي الأثر الاقتصادي، بدلاً من الارتهان الحصري لأرقام النشر، والانتقال تدريجياً نحو تقييم يعتمد على «دراسات حالة الأثر للأبحاث».
• تفعيل الشراكة الحقيقية مع القطاع الخاص لضمان تحول براءات الاختراع إلى قيمة مضافة، مع اشتراط خطة تسويق تجارية لها.
• تفعيل منصة وطنية لجميع المنشآت التعليمية العليا والبحثية تهدف إلى قياس مؤشرات الاستثمار المعرفي من الأبحاث وتسليط الضوء على مبادرات بها مؤشرات أداء تسهّل المتابعة وتعزز التميز وتناقش المقصّر.
• لفتة مجلس الشورى الاستثنائية والشفافة مؤخراً تجاه بعض الجامعات والبحث العلمي تسجل بتميز، ونحن بحاجة لهذه المتابعة بشكل مستمر من الجهات العليا ذات العلاقة، إذ تؤكد مخرجاتها وجود فجوة صريحة بحاجة إلى حوكمة إطارية رقابية وإشرافية على الجامعات ومخرجاتها.
• تمكين الباحثين من سهولة الوصول إلى المقومات اللازمة لتفعيل الأبحاث التطبيقية ذات القيم الملموسة وتمكين مشاركة المعامل البحثية مركزياً ما بين القطاعات المختلفة.
• تسليط الضوء على الأبحاث الطبية السريرية، وهذه بحد ذاتها بحاجة إلى دعم فعال وتفعيل بشكل مكثف وأكبر.
في المؤسسات الناضجة، لا يتم السؤال عن عدد الأوراق المنشورة، بل عن المشكلات التي تم حلها والأثر الذي تركته. تحرير بعض العقول الأكاديمية من هوس التصنيف الشكلي هو الخطوة الأولى لبناء استثمار معرفي حقيقي وملموس، حتى لا تصبح ابتكاراتنا/أبحاثنا مجرد ورق… وتلك هي جناية أبحاث الرفوف.
In an incident that has lingered in my mind for nearly twelve years, during my doctoral studies, we received our lectures from various specialists in each session; this diversity adds an attractive and enriching character. Here, a brief moment of reflection highlights the positives of this diversity as an alternative to the singular lecturer model throughout the semester.
One day, the lecturer was an experienced neurosurgeon specializing in brain surgery and epilepsy operations. Due to the congestion in his surgical schedule, the lecture was held at six-thirty in the morning!
During his in-depth explanation of diagnosing epilepsy through medical imaging, he casually touched upon “scientific research” and the concept of quality and real impact, posing a fundamental question about the flood of published research, most of which has no impact. He cited the example of CT scan engineer “Godfrey Hounsfield,” who published only a few papers; one explaining the physics of the innovative device, and the other its clinical application.
Some situations and words are unforgettable; if I were asked today about the medical content of that lecture, my memory might not serve me well, but that fleeting morning remark still jumps to my mind as I ponder his question in relation to our reality, asking: Which side do we align with? A multitude of research with little real benefit, or its scarcity with great impact?
Here, a striking paradox emerges that some of our academic and research environments suffer from; a massive abundance of published output is met with a troubling lack of tangible impact. The issue is not the scarcity of distinguished minds or the absence of funding, but rather the silent deviation of the research compass; where “performance indicators” have shifted from a tool for measuring research quality to an end in themselves. Many educational institutions and quality monitoring bodies evaluate scientific research based on two indicators: the number of publications and the number of citations, while the most important aspect—the actual impact—is overlooked. In the corridors of these institutions, a familiar scene repeats: a loud celebration of publishing a scientific paper, or boasting about entering a global ranking, or accumulating paper patents.
Superficially, we are witnessing an impressive movement; but when we search for the impact of these outputs in our factories, hospitals, and economy, we encounter a void that raises a question worth confronting, and one we may fear the answer to: Are we writing to “advance” or to “elevate”?
Perhaps the root of the problem lies in the regulations governing research, and the main gaps can be summarized as follows:
• The success of research projects is tied to publication in classified journals only, with an almost complete absence of support based on the tangible impact of these research outputs. For example, the importance of achievement is given to the place of publication more than its content.
• A frantic pursuit to incur hefty costs for registering patents to score points in global rankings, ending up as certificates hanging on walls without productive transformation or commercial marketing. It is worth noting that registering a patent on paper may be easier than publishing a peer-reviewed paper—historically, we find that some universities experienced a sudden rise in patent rates in one year, only for this revolution to later fade, often due to financial constraints.
• Some research-supporting entities tend to reject ideas that break the mold and prefer “safe” cumulative research to ensure a steady flow of publications without risk.
• The materials governing promotions and excellence are more linked to quantity and classification than to impact. For instance, in academic promotion points, which I experienced, publishing as a sole researcher in a very low-ranked journal is measured as superior compared to research conducted with a group of advanced specialists from different countries in a very high-ranked journal, which is another passing flaw that also discourages collaborative work!
• An excessive reliance by some on metrics that depend largely on citation volumes, such as the Stanford list of the top 2% of scientists (a list unrelated to its name), and other lists that do not necessarily reflect the societal impact or actual economic innovation of the researcher.
• Limited diversity of specialties in the bodies and committees concerned with supported research directions, which makes these directions revolve around the specialties of their legislators.
A historical perspective and a pause on some research events:
• Inventor “Hounsfield” focused on building the “product – CT scanner,” and did not publish his foundational paper until 1973 after proving the clinical success of his device, later receiving the Nobel Prize in Medicine.
• The first research paper by scientist “Paul Lauterbur” on his MRI invention was rejected in 1973 by the journal “Nature” on the grounds of poor image quality, before it later published the paper that changed the face of medicine and earned him a Nobel Prize.
• The paper by “Peter Higgs,” which predicted the Higgs boson, was rejected by the journal Physics Letters on the grounds that it “had no clear relevance to physics,” before its validity was proven 48 years later at CERN, earning him the Nobel Prize in Physics in 2013. Ironically, Higgs himself stated on the eve of receiving the award that he would not obtain an academic job in the current system because he would not be considered “productive enough,” having published fewer than ten papers after his pioneering work.
• Some studies indicate that the cost of registering patents at several universities exceeds their financial returns, as a recent study revealed that a single American university lost over nine million dollars annually on intellectual property with a negative return of about -98%—patents born for classification, not for manufacturing.
• Some academic studies have shown that the continuous pressure to publish has real costs on innovation, recommending not to tie job security solely to quantitative productivity metrics.
• A bibliometric study confirms that more than 80% of Nobel laureates between 2010 and 2019 were not on the lists of “most cited researchers,” which means that these metrics do not necessarily reveal the most influential minds.
Certainly, this discussion does not diminish the importance of “theoretical or routine publication,” as it is necessary and important as a foundation for knowledge. However, the problem lies in the strategic imbalance between two paths: the first “routine publication path,” which occupies the vast majority of researchers’ and institutions’ attention and has high rates, and the second “applied publication path” with tangible impact, which still witnesses a clear scarcity. Here, we do not negate the importance of the first, nor do we place blame on the researcher; to advance, one must comply with and keep pace with existing systems, and as long as some have different ways to reach, some of which are short and quick regardless of their impact, they will be taken. Publication itself is not the dilemma, and its diversity is a requirement, but it is a matter of proportion; how many of those researches have had a tangible impact, and does that align with the supportive facilities? And where is the gap?
Most of these gaps fall on the shoulders of institutions and the environment drawn by them through governance of regulations and research directions that have shaped a limited research culture. A living institution is one that transforms from a “paper factory” to a “problem-solving platform.” Overcoming this waste requires clear transformations in the mindset of regulatory institutions and related bodies and their regulations to positively impact research thought, productivity, and culture, among the most prominent of which are:
• Linking research funding to developmental needs with tangible impact, so that investment is directed towards “applied competencies” rather than mere theoretical description.
• Developing the criteria of regulations and systems to give substantial additional weight to technological innovation with economic impact, instead of being exclusively tied to publication numbers, and gradually transitioning towards evaluation based on “impact case studies of research.”
• Activating genuine partnerships with the private sector to ensure that patents turn into added value, with a requirement for a commercial marketing plan for them.
• Activating a national platform for all higher education and research institutions aimed at measuring indicators of knowledge investment from research and highlighting initiatives with performance indicators that facilitate follow-up, enhance excellence, and discuss shortcomings.
• The exceptional and transparent gesture of the Shura Council recently towards some universities and scientific research is noteworthy, and we need this continuous follow-up from the higher relevant authorities, as its outputs confirm the existence of a clear gap that needs a regulatory and supervisory framework governance over universities and their outputs.
• Enabling researchers to easily access the necessary components to activate applied research with tangible values and facilitating the centralized sharing of research laboratories among different sectors.
• Highlighting clinical medical research, which itself needs effective support and greater activation.
In mature institutions, the question is not about the number of published papers, but about the problems that have been solved and the impact they have left. Liberating some academic minds from the obsession with formal classification is the first step towards building a real and tangible knowledge investment, so that our innovations/research do not become mere paper… and that is the crime of shelf research.
للمزيد من المقالات
اضغط هنا

التعليقات