علم‌سنجی در آستانه دگرگونی: از سنجش و ارزیابی انسان‌محور تا همزیستی مسئولانه با هوش مصنوعی

سخن سردبیر

نویسنده

سردبیر پژوهش‌نامه علم‌سنجی، دوفصلنامه علمی دانشگاه شاهد و استاد گروه علم اطلاعات و دانش‌شناسی دانشگاه شاهد، تهران، ایران.

10.22070/rsci.2026.5033

چکیده

تشخیص نقش واقعی نویسندگان در تولید یک اثر علمی و تبیین سهم مشارکت هر یک از آن‌ها در شکل‌گیری، اجرا و انتشار پژوهش، همواره از مهم‌ترین و بحث‌برانگیزترین دغدغه‌های نظام ارزیابی پژوهش به شمار آمده ای بین‌المللی نیز اشاره کرد که در پاسخ به همین دغدغه‌ها شکل گرفته‌اند. به‌عنوان و در کانون توجه جامعه علم‌سنجی قرار داشته است. به عنوان نمونه، یکی از مفاهیم کلیدی در این زمینه، «تحلیل عامل چیرگی » است که میزان قرارگیری نویسنده در جایگاه نویسنده اول را مبنایی برای سنجش چیرگی علمی وی بر سایر هم‌نویسندگان در نظر می‌گیرد (Kumar et al., 2021). در کنار پژوهش‌های گسترده‌ای که در این حوزه انجام گرفته، باید به تلاش‌هنمونه، کمیته بین‌المللی سردبیران نشریات پزشکی  چهار شرط مشخص را برای احراز نویسندگی مقاله علمی برمی‌شمارد (ICMJE، به نقل از حسینی و همکاران، ۱۴۰۴، ص. ۲۲):
۱. مشارکت معنادار در مفهوم‌سازی، طراحی، یا تحلیل و تفسیر داده‌ها؛
۲. نگارش پیش‌نویس اولیه یا بازنگری انتقادی اثر از نظر محتوای علمی؛
۳. تأیید نهایی نسخه منتشرشده؛
۴. تعهد به پاسخ‌گویی کامل نسبت به تمامی جنبه‌های اثر پژوهشی.
در ادامه، پژوهشگرانی همچون لاریویر و همکاران (Larivière et al., 2021، به نقل از حسینی و همکاران، ۱۴۰۴، ص. ۲۲)، تأکید کرده‌اند که نویسنده علمی باید واجد هر چهار شرط فوق باشد. در همین راستا، یکی از مهم‌ترین اقدامات بین‌المللی در زمینه شفاف‌سازی نقش‌های مشارکت‌کنندگان در پژوهش، تدوین استاندارد ANSI/NISO Z39.104-2022 (استاندارد CRediT) است. این استاندارد که با پشتیبانی موسسه استاندارد ملی آمریکا ، توسط سازمان استانداردهای اطلاعات ملی توسعه یافته است، با معرفی چهارده نقش مشخص در فرآیند پژوهش- از مفهوم‌سازی و روش‌شناسی تا نگارش، تحلیل و تصویرسازی-، امروز به‌طور گسترده در میان مجلات، ناشران و نهادهای ارزیابی پژوهش کاربرد دارد (NISO, 2022).
نکته مشترک در تمامی این تلاش‌ها، تأکید بر جایگاه یگانه و غیرقابل‌جایگزین پژوهشگر انسانی در ایفای سه نقش بنیادین است: تبیین مسئله پژوهش، تفسیر نتایج، و تأیید صحت داده‌ها و یافته‌ها. این سه نقش کلیدی، ذاتاً به قضاوت علمی و مسئولیت‌پذیری انسانی وابسته‌اند و لزوماً باید توسط خود پژوهشگر ایفا شوند؛ به‌گونه‌ای که استفاده از هیچ ابزار فناورانه‌ای- اعم از نرم‌افزارهای تحلیلی یا سامانه‌های هوش مصنوعی- نمی‌تواند جایگزین ایفای مستقیم این نقش‌ها توسط شخص پژوهشگر شود. از همین رو، در استانداردهای مربوط به تعیین نقش مشارکت‌کنندگان در پژوهش نیز، حتی در مواردی که به «نرم‌افزار» یا «ابزار» اشاره می‌شود، مقصود بهره‌گیری پژوهشگر از ابزارهای تحلیلی است، نه واگذاری مسئولیت تفکر، داوری و قضاوت علمی به ماشین. بنابراین، هرچند ابزارهای هوش مصنوعی و پایگاه‌های داده می‌توانند فرایند گردآوری و تحلیل داده‌های علم‌سنجی را تسریع و تسهیل کنند، اما فهم مسئله پژوهش، داوری درباره نتایج، و اعمال مسئولیت علمی همچنان و به‌طور انحصاری در قلمرو پژوهشگر انسانی باقی می‌مانند.
هوش مصنوعی در مسیر علم‌سنجی
با توجه به مباحث پیش‌گفته، روشن است که ورود و به‌کارگیری فناوری هوش مصنوعی در پژوهش‌های علم‌سنجی، با وجود ظرفیت‌های قابل‌توجهی که در تسهیل و پیشبرد مراحل مختلف پژوهش فراهم می‌آورد، نمی‌تواند جایگزین سه نقش بنیادی پژوهشگر علم‌سنجی در تبیین مسئله پژوهش، تفسیر نتایج، و تأیید صحت داده‌ها و یافته‌ها شود. علم‌سنجی همواره در تعامل مستقیم با فناوری‌های نوین شکل گرفته و تکامل یافته است؛ از پایگاه‌های اطلاعاتی و نرم‌افزارهای تحلیل داده گرفته تا مدل‌های زبانی بزرگ[1]، هر تحول فناورانه ظرفیت‌های تازه‌ای برای افزایش دقت، سرعت و عمق تحلیل‌ها در این حوزه فراهم کرده است. بااین‌همه، عرصه علم‌سنجی امروز بیش از هر زمان دیگر نیازمند آن است که مرز میان «توانایی فناورانه» و «قضاوت علمی» را به‌روشنی حفظ کند.
ورود مدل‌های زبانی بزرگ به این حوزه، مرحله‌ای تازه از تحلیل داده‌های علمی را رقم زده است؛ مرحله‌ای که در آن، هوش مصنوعی به شریک فناورانه تصمیم‌گیری انسانی بدل شده و تحلیل داده‌ها به تفسیر الگوریتمی از نظام علم نزدیک می‌شود (Zhang et al., 2025). این تحول، از منظر سیاست‌گذاری ملی نیز اهمیت بسیار دارد؛ زیرا می‌تواند توان دیدبانی نظام علم را افزایش دهد و داده‌های گسترده‌تری را برای سیاست‌گذاران فراهم سازد؛ چرا که مدل‌های زبانی بزرگ می‌توانند: (Saarela et al., 2025; Thelwall, 2025; Zhang et al., 2025)
-   متون علمی را در مقیاس انبوه تحلیل کنند؛
-   مفاهیم نوظهور و جهت‌گیری‌های پژوهشی را شناسایی نمایند؛
-   پیوندهای میان علم، فناوری و جامعه را برجسته‌تر سازند؛
-   استنادها را قابل پیش‌بینی‌تر کنند؛
-   امکان تحلیل مؤثرتر مسیرهای دانشی را فراهم سازند؛
-   شناسایی محورهای پژوهشی را امکان‌پذیرتر کنند؛ و
-   در فرایند داده‌کاوی، ویژگی‌های متنی پیشرفته را استخراج کنند.
سارلا و همکاران (Saarela et al., 2025) نشان می‌دهند که مدل‌های زبانی بزرگ و گراف‌های دانش[2] از ظرفیت بالایی برای غنی‌سازی تحلیل‌های علم‌سنجی برخوردارند. همچنین، مطابق مطالعه آن‌ها، مدل‌های زبانی بزرگ و گراف‌های دانش در پژوهش‌های جاری علم‌سنجی، به دو منظور به کار گرفته شده است:
۱) تقویت تحلیل‌های سنتی علم‌سنجی: به منظور بهبود دقت، مقیاس‌پذیری و غنای تحلیلی روش‌های موجود در پژوهش، برای مواردی از قبیل:
-   استخراج موجودیت‌ها؛
-   نگاشت موضوعی؛
-   تحلیل روندها؛ و
-   ساخت گراف‌های دانش حوزه‌ای.
۲) کاربردهای اکتشافی و مولد: به‌عنوان موتورهای کشف دانش، برای مواردی از قبیل:
-   ایده‌پردازی پژوهشی؛
-   پیش‌بینی علائق پژوهشی؛
-   پرسش و پاسخ علمی؛ و
-   تحلیل میان‌رشته‌ای پیشرفته.
بر این مبنا، سارلا و همکاران (Saarela et al., 2025) علم‌سنجی را در حال گذار از ترسیم نقشه علم گذشته‌نگر به سوی اکتشاف و تحلیل بینشِ آینده‌نگر مبتنی بر هوش مصنوعی می دانند. ثلوال (Thelwall, 2025) نیز به نوعی بر همین دیدگاه صحه گذاشته و اذعان می‌دارد که استفاده از مدل‌های زبانی بزرگ در ارزیابی پژوهش می‌تواند به تغییر در رویکردهای تصمیم‌گیری و مدیریت پژوهش منجر شود. روشن است که این برای علم‌سنجی در مقام پشتیبانی‌کننده از سیاست‌گذاری علم و فناوری، به معنای دسترسی به ابزارهایی است که نه‌فقط «چه بوده است» را، بلکه «چه چیز در حال شکل‌گیری است» را با سهولت بیشتری نمایش می‌دهد.
در عین حال، سیستم‌های مبتنی بر هوش مصنوعی در کنار ظرفیت‌های خود، به‌سبب داده‌های آموزشی و طراحی مدل خود، مستعد سوگیری و ناهماهنگی ناشی از داده‌های آموزشی و طراحی مدل هستند. بنابراین، استفاده از آن‌ها در ارزیابی پژوهش، نیازمند شفافیت، نظارت انسانی و مسئولیت‌پذیری روش‌شناختی است (Zhang et al., 2025). این موضع‌گیری کاملاً با دیدگاه انتقادی ثلوال (Thelwall, 2025) همخوان است که هشدار می‌دهد فقدان نظارت انسانی در استفاده از هوش مصنوعی برای ارزیابی پژوهش، می‌تواند به تحریف‌های سیستمی و تصمیم‌های نادرست منجر شود. بعلاوه، سارِلا و همکاران (Saarela et al., 2025) با اذعان به این نکته که هوش مصنوعی می‌تواند بسیاری از محدودیت‌های روش‌های سنتی علم‌سنجی را کاهش دهد، تأکید می‌کنند که خروجی‌های مدل‌های زبانی بزرگ، تنها در صورتی واجد اعتبار تحلیلی هستند که به روابط، شواهد و داده‌های مشخص در گراف‌های دانش قابل ردیابی باشند. از این منظر، گراف‌های دانش نقش یک لایه معنایی شفاف و تبیین‌پذیر را در فرایند تحلیل ایفا می‌کنند. بااین‌حال، همانند دیدگاه‌های ژانگ و همکاران (Zhang et al., 2025) و ثِلوال (Thelwall, 2025)، آن‌ها نیز بر این باورند که بدون تبیین‌پذیری، نظارت انسانی و استقرار چارچوب‌های اخلاقی روشن، استفاده از هوش مصنوعی در ارزیابی و تحلیل پژوهش می‌تواند به تولید تحلیل‌هایی گمراه‌کننده یا غیرقابل اعتماد بینجامد.
جمع‌بندی و چشم‌انداز
تحولات اخیر در عرصه پژوهش‌های علم‌سنجی، به‌ویژه با ظهور مدل‌های زبانی بزرگ و هوش مصنوعی مولد، مرحله‌ای تازه در فهم، تحلیل و تفسیر نظام علم پدید آورده است. با وجود ظرفیت‌های گسترده این فناوری‌ها در تسریع تحلیل داده‌ و گسترش افق‌های کشف دانش، ماهیت پژوهش‌های علم‌سنجی همچنان در پیوندی ناگسستنی با داوری انسانی، تبیین‌پذیری و اعتماد علمی معنا می‌یابد.
همان‌گونه که ژانگ و همکاران (Zhang et al., 2025) هوش مصنوعی را نقطه عطفی در تحول پارادایم‌های اندیشه‌ای علم می‌دانند، و سارِلا و همکاران (Saarela et al., 2025) بر نقش میانجی‌گرانه تعامل انسان-هوش مصنوعی در ایجاد فرایندهای تحلیلی شفاف و قابل‌ردیابی تأکید می‌کنند، ثِلوال (Thelwall, 2025) نیز هشدار می‌دهد که هر چند مدل‌های زبانی بزرگ می‌توانند ظرفیت‌های ارزیابی کیفیت پژوهش را ارتقاء دهند، فقدان نظارت انسانی می‌تواند احتمال بروز سوگیری‌های سیستمی و برداشت‌های نادرست در ارزیابی پژوهش را افزایش دهد. بر این اساس، مسیر آینده علم‌سنجی را نمی‌توان در اتکای صرف به الگوریتم‌ها جست‌وجو کرد؛ بلکه این مسیر باید در چارچوب طراحی هم‌افزای انسان و هوش مصنوعی دنبال شود. چارچوبی که در آن، پژوهشگر در جایگاه ناظر، مفسر و مسئول نهایی نتایج علمی حفظ می‌شود و در عین حال، با استانداردهای بین‌المللی تعیین نقش مشارکت‌کنندگان در پژوهش، از جمله CRediT، نیز انطباق دارد.
در این چارچوب، هر پژوهش علم‌سنجی- چه در سطح ملی و چه در سطح بین‌المللی- باید بر سه اصل بنیادین استوار باشد:
۱. تبیین‌پذیری و شفافیت فرایندهای تحلیلی؛
۲. نظارت و پاسخ‌گویی انسانی در تولید و تفسیر نتایج؛ و
۳. انطباق فناوری با اهداف راهبردی سیاست علم و اخلاق پژوهش.
چشم‌انداز پیشِ روی جامعه پژوهشگران علم‌سنجی ایران، نه حذف یا مقاومت در برابر فناوری‌های نو، بلکه شکل‌گیری گفت‌وگویی منظم، آگاهانه و نهادمند درباره شیوه‌های استفاده مسئولانه از آن‌هاست؛ گفت‌وگویی که می‌تواند در نهایت به تدوین چارچوبی بومی برای «علم‌سنجی انسان-هوش مصنوعی‌محور» بینجامد. در چنین افقی، پژوهشگر علم‌سنجی نه رقیب هوش مصنوعی، بلکه تنظیم‌گر اخلاقی و علمی تعامل با آن است؛ نقشی که هم اصالت علم را پاس می‌دارد و هم مسیر تحول آینده را روشن‌تر می‌سازد.
بنابراین، پرسش اساسی امروز دیگر این نیست که آیا باید از هوش مصنوعی در علم‌سنجی استفاده کرد یا نه، بلکه این است که چگونه می‌توان این استفاده را به‌گونه‌ای طراحی کرد که هم اثربخش باشد و هم با اهداف کلان سیاست علم هم‌سو بماند؛ چگونه می‌توان بدون تضعیف استانداردهای ذاتی نقش پژوهشگر- از جمله چارچوب CRediT-، از مدل‌های زبانی بزرگ در توسعه پژوهش‌های علم‌سنجی بهره گرفت؛ و چگونه می‌توان به چارچوب‌ها و ضوابطی روشن برای مدل‌های پژوهشی مبتنی بر تعامل انسان–هوش مصنوعی دست یافت. بی‌تردید، اندیشمندان و پژوهشگران حوزه علم‌سنجی، با نگاهی انتقادی و سنجش‌گرانه به پدیده نوظهور هوش مصنوعی مولد و با پاسخ‌گویی به چنین پرسش‌های تأمل‌برانگیزی، خواهند توانست مسیر بهره‌گیری هوشمندانه و مسئولانه از این ابزار نوین را هموار سازند و فرصت‌های تازه‌ای را پیشِ روی جامعه علم‌سنجی قرار دهند.

کلیدواژه‌ها


عنوان مقاله [English]

Scientometrics at a Turning Point: From Human-Centered Assessment and Evaluation to Responsible Coexistence with Artificial Intelligence

نویسنده [English]

  • Abdolreza Noroozi Chakoli
Editor-in-Chief of Scientometrics Research Journal: Scientific Bi-Quarterly of Shahed University, And Professor, Department of Infor-mation Science and Knowledge Studies, Shahed University, Tehran, Iran.
چکیده [English]

 
Identifying the actual roles of authors in the production of a scientific been among the most important and contested concerns of research evaluation systems, remaining at the center of attention within the scientometrics community. As an illustrative example, one of the key concepts in this context is Dominance Factor Analysis (DFA), which takes the frequency with which work and clarifying the the nature and extent of each contributor’s participation in the conception, execution, and dissemination of research have consistently an author occupies the first‑author position as a basis for assessing that author’s scientific dominance over other co-authors (Kumar et al., 2021). Alongside the extensive research conducted in this area, it is also necessary to refer to international efforts that have emerged in response to these same concerns. For example, the International Committee of Medical Journal Editors (ICMJE) specifies four explicit criteria for qualifying for authorship of a scientific article (ICMJE, as cited in Hosseini et al., 2025, p. 22):

Substantial contributionto the conception or design of the study, or to the analysis and interpretation of data;
Drafting the initial manuscriptor critically revising it for important intellectual content;
Final approvalof the version to be published;
Full accountabilityfor all aspects of the research work.

Building on this line of argument, scholars such as Larivière et al. (2021, as cited in Hosseini et al., 2025, p. 22) have emphasized that a scientific author must satisfy all four of the above criteria. In this context, one of the most significant international initiatives aimed at enhancing transparency in contributors’ roles is the development of the ANSI/NISO Z39.104‑2022 standard (the CRediT standard). This standard, developed by the National Information Standards Organization (NISO) with the endorsement of the American National Standards Institute (ANSI), introduces fourteen clearly defined roles across the research process—from conceptualization and methodology to writing, analysis, and visualization—and is now widely adopted by journals, publishers, and research evaluation bodies (NISO, 2022).
 The common thread running through all these efforts is the emphasis on the unique and non‑substitutable position of the human researcher in fulfilling three fundamental roles: articulating the research problem, interpreting the results, and verifying the validity of data and findings. These three core roles are inherently grounded in scientific judgment and human accountability and must necessarily be performed by the researcher themselves, such that no technological tool- whether analytical software or artificial intelligence systems- can substitute for the researcher’s direct engagement in carrying out these functions. For this reason, even within standards that define and classify contributor roles in research, references to “software” or “tools” are intended to denote the researcher’s use of analytical instruments, rather than the delegation of responsibility for reasoning, evaluation, and scientific judgment to machines. Accordingly, while artificial intelligence tools and data infrastructures can substantially accelerate and facilitate the collection and analysis of scientometric data, understanding the research problem, exercising judgment over results, and assuming scientific responsibility remain firmly and exclusively within the domain of the human researcher.
Artificial Intelligence on the Trajectory of Scientometrics
In light of the preceding discussion, it is evident that the introduction and adoption of artificial intelligence technologies in scientometric research- despite the substantial capacities they offer for facilitating and advancing various stages of the research process- cannot substitute for the three fundamental roles of the scientometrics researcher: articulating the research problem, interpreting the results, and verifying the validity of data and findings. Scientometrics has always been shaped and advanced through direct engagement with emerging technologies; from bibliographic databases and data analysis software to large language models, each technological development has opened new possibilities for enhancing the accuracy, speed, and depth of analysis in this field. Nevertheless, the contemporary landscape of scientometrics more than ever requires that the boundary between “technological capability” and “scientific judgment” be clearly and deliberately maintained.
The introduction of large language models into this field has ushered in a new phase of scientific data analysis- one in which artificial intelligence becomes a technological partner in human decision‑making, and data analysis increasingly approaches an algorithmic interpretation of the scientific system (Zhang et al., 2025). From the perspective of national science policy, this transformation is also of considerable importance, as it can enhance the monitoring capacity of the science system and provide policymakers with more comprehensive evidence bases. This is because large language models are capable of (Saarela et al., 2025; Thelwall, 2025; Zhang et al., 2025):
-   analyzing scientific texts at scale;
-   identifying emerging concepts and research orientations;
-   making the linkages between science, technology, and society more visible;
-   improving the predictability of citations;
-   enabling more effective analyses of knowledge trajectories;
-   facilitating the identification of research axes and thematic areas; and
-   extracting advanced textual features within data‑mining processes.
Saarela et al. (2025) demonstrate that large language models and knowledge graphs possess substantial potential for enriching scientometric analyses. They show that, in contemporary scientometric research, large language models and knowledge graphs are being employed for two primary purposes:

Enhancing traditional scientometric analyses to improve the accuracy, scalability, and analytical richness of existing research methods, including tasks such as:

-   entity extraction;
-   thematic mapping;
-   trend analysis; and
-   the construction of domain-specific knowledge graphs.

Exploratory and generative applications, functioning as engines of knowledge discovery for purposes such as:

-   research idea generation;
-   prediction of research interests;
-   scientific question answering; and
-   advanced interdisciplinary analysis.
On this basis, Saarela et al. (2025) view scientometrics as undergoing a transition from retrospective mapping of science toward AI‑augmented discovery and insight-oriented analysis. Thelwall (2025) similarly lends support to this perspective, arguing that the use of large language models in research evaluation has the potential to reshape decision-making approaches and research management practices. It is evident that, for scientometrics in its role as a support mechanism for science and technology policy, this shift implies access to tools that facilitate not only an understanding of what has been, but also a clearer visibility into what is currently taking shape.
At the same time, AI-based systems, despite their considerable capabilities, are inherently susceptible to biases and inconsistencies arising from their training data and model design. Consequently, their use in research evaluation necessitates transparency, human oversight, and methodological accountability (Zhang et al., 2025). This position is fully aligned with the critical perspective articulated by Thelwall (2025), who warns that the absence of human oversight in AI-based research evaluation may lead to systemic distortions and misguided decisions. Moreover, Saarela et al. (2025), while acknowledging that artificial intelligence can alleviate many of the limitations of traditional scientometric methods, emphasize that the outputs of large language models are analytically meaningful only insofar as they are traceable to explicit relations, evidence, and data within knowledge graphs. From this perspective, knowledge graphs function as a transparent and explainable semantic layer within the analytical process. Nevertheless, in line with the views of Zhang et al. (2025) and Thelwall (2025), they likewise maintain that without explainability, human oversight, and the establishment of clear ethical frameworks, the application of artificial intelligence in research evaluation and analysis may result in misleading or unreliable analytical outcomes.
Conclusion and Outlook
Recent developments in scientometrics- particularly with the emergence of large language models and generative artificial intelligence- have ushered in a new phase in understanding, analyzing, and interpreting the scientific system. Despite the extensive capacities of these technologies to accelerate data analysis and broaden the horizons of knowledge discovery, the very nature of scientometrics remains inseparably linked to human judgment, explainability, and scientific trust.
As Zhang et al. (2025) characterize artificial intelligence as a turning point in the transformation of scientific paradigms, and Saarela et al. (2025) emphasize the mediating role of human–AI interaction in enabling transparent and traceable analytical processes, Thelwall (2025) similarly cautions that, although large language models can enhance the capacity for research quality evaluation, the absence of human oversight may increase the risk of systemic biases and misinterpretations in research assessment. Accordingly, the future trajectory of scientometrics cannot be sought in a reliance on algorithms alone. Rather, it must be pursued within a framework of human–AI co–design, in which the researcher is preserved as the final overseer, interpreter, and accountable agent of scientific results, while simultaneously aligning with international standards for the attribution of contributor roles in research, such as the CRediT taxonomy.
Within this framework, any scientometric research- whether conducted at the national or international level- should be grounded in three fundamental principles:

Explainability and transparency of analytical processes;
Human oversight and accountability in the production and interpretation of results; and
Alignment of technology with the strategic objectives of science policy and research ethics.

The forward-looking vision for Iran’s scientometrics community is therefore not one of rejection of, or resistance to, emerging technologies, but rather the cultivation of a systematic, informed, and institutionalized dialogue on their responsible use. Such a dialogue can ultimately lead to the development of a context-sensitive framework for human–AI–centered scientometrics. Within this horizon, the scientometrics researcher is not positioned as a competitor to artificial intelligence, but as the ethical and scientific regulator of interaction with it—a role that both safeguards the integrity of science and clarifies the path of future transformation.
Accordingly, the central question today is no longer whether artificial intelligence should be used in scientometrics, but how such use can be designed in a manner that is both effective and aligned with the overarching goals of science policy. It is a question of how large language models can be leveraged to advance scientometric research without undermining the intrinsic standards of the researcher’s role, including established frameworks such as CRediT, and how clear principles and guidelines can be established for research models based on human–AI interaction. Undoubtedly, scholars and researchers in the field of scientometrics, by approaching the emerging phenomenon of generative artificial intelligence with a critical and evaluative perspective, and by engaging with such reflective questions, will be able to pave the way for the intelligent and responsible use of these novel tools, thereby opening new opportunities for the scientometrics community.

کلیدواژه‌ها [English]

  • Scientometrics
  • Human-Centered Assessment
  • Artificial Intelligence
حسینی، الف.، حسینی، م.، و علی‌پور طهرانی، م. (1404). کاربرد نقش‌ها، تکامل ساختار فکری، و شبکه موضوعی هم‌رخدادی واژگان: حوزه طبقه‌بندی-ها و هستان‌شناسی‌های نقش مشارکت‌کنندگان. پژوهش نامه علم‌سنجی، 11(۲)، 21-54. https://doi.org/10.22070/rsci.2024.19267.1742
Hosseini, E., Hosseini, M., & Alipour-Tehrani, M. (2025). Role use, intellectual structure evolution, and the co-occurrence topic network of vocabulary: The domain of role classifications and ontologies of participants. Scientometrics Research Journal11(2), 21-54.
Kumar, S., Dhoble, S., & Shah, L. (2021). Dominance Factor Analysis for collaboration and productivity of authors. Journal of Science and Technology Metrics, 2(1), 1-9.
NISO. (2022). CRediT, Contributor Roles Taxonomy (ANSI/NISO Standard No. Z39.104-2022). American National Standards Institute, National Information Standards Organization. https://doi.org/10.3789/ansi.niso.z39.104-2022
Saarela, M., Correia, A., & Kärkkäinen, T. (2025). Explainable and interactive scientometrics with Large Language Models and Knowledge Graphs [Conference presentation]. Proceedings of the 9th International Symposium on Multidisciplinary Studies and Innovative Technologies (ISMSIT), Ankara, Turkey, 14-16 November 2025. IEEE.
Thelwall, M. (2025). Research quality evaluation by AI in the era of large language models: Advantages, disadvantages, and systemic effects. Scientometrics, 130(10), 5309–5321. https://doi.org/10.1007/s11192-025-05361-8
Zhang, Y., Zhang, C. & Kousha, K. (2025). Editorial: Artificial intelligence for scientometrics (Part I). Scientometrics, 130(10), 5281–5284 https://doi.org/10.1007/s11192-025-05470-4