ميگنا : پایگاه خبری روانشناسی و سلامت 8 مرداد 1400 ساعت 21:13 https://www.migna.ir/news/54220/سوی-شفافیت-فساد-روانشناسی-نقدی-درون -------------------------------------------------- عنوان : به سوی شفافیت:‌ فساد در روانشناسی، نقدی از درون نیما اورازانی -------------------------------------------------- هدف نویسنده در نوشتار «به سوی شفافیت: فساد در روانشناسی، نقدی از درون» آن است تا از رهگذر چند استدلال به طور خلاصه نشان دهد که چرا باید در نگاه نخست به یافته‌های روانشناسی بدبین بود. متن : این نقد در دلِ سنتِ روانشناسیِ جریانِ غالب (mainstream psychology) معنا می یابد، بدین معنا که نویسنده این فرض را می پذیرد که روانشناسیْ یک علمْ (science) به معنایِ مدرنِ آن است (نویسنده چندان با چنین تلقی ای از روانشناسی همدلی ندارد). از این منظر، روانشناسی به مثابه یک علم فارغ از هر گونه ارزش داوری است (value-free) یا دست کم قرار است که اینگونه باشد. علاوه بر آن، گرایش های سیاسی و باورهای فردیِ پژوهشگر در آن راهی ندارند و بر نتایجِ آن تاثیری نمی گذارند و شاید مهم تر از همه اینکه روانشناسی همچون علوم سخت (hard sceicne)، در پی کشف (و نه جعلِ) روابطِ علّیِ بینِ پدیده هاست و به همین اعتبار حقیقتِ امور را آنچنانکه هست به ما می نمایاند. در این مورد خاص حقیقت امور عبارت است از فرایندهای روانشناختی ای که از رهگذر آنها ما انسان ها (به عام ترین معنای آن) خود و دیگران را می فهمیم و مدیریت می کنیم. تمامی این اهداف با یک روش شناسی (methodology) ایده آل محقق می شوند: روش آزمایشی (experimental method). از آنجا که نویسنده قصد دارد تا از درون همین سنت (یعنی سنت پوزیتیویستی، positivism) به نقد روانشناسی بپردازد این پیش فرض ها را بنا به اقتضای بحث می پذیرد. و اما پرسش اصلی: چرا باید به یافته های پژوهش های علمی ای که در روانشناسی انجام می شوند در وهله نخست بدبین بود؟ این ادعا مستظهر به چهار دلیل زیر است. ۱_ بحران تکرارپذیری (replication crisis) یا رپلیگیت (Repligate): تکرارپذیری از بنیان های علم است. همان گونه که از عنوانش پیداست تکرارپذیری یا بازتولید (reproducibility) عبارت است از توانایی دیگر پژوهشگران در تولید نتایج پژوهشی ای که قبلا انجام شده اند با توسل به همان روش هایی که نتایج اولیه را تولید کرده اند. ناتوانایی در تکرار یا بازتولید نتایج پیشین پژوهشی به این معناست که آن نتایج قابل اعتماد نیستند و این تنها شانس یا عواملی به غیر از عوامل ادعایی پژوهشگران بوده است که نتایج ابتدایی را تولید کرده اند. در می سال ۲۰۱۴ مجلهٔ روانشناسی اجتماعی (Social Psychology) در یک شمارهٔ ویژه که ویراستاران مهمان آن برایان نوزک (Brian Nosek) از دانشگاه ویرجیانا و دنیل لیکنز (Danil Lakens) از دانشگاه تکنولوژی آیندهوون بودند نتایج پروژه ای بلندپروازانه را منتشر کرد که هدف آن تکرار ۱۳ اثر کلاسیک شناخته و منتشرشده در مجلات معتبر روانشناسی بود. کمی بیش از یک سال بعد در آگوست سال ۲۰۱۵ مجلهٔ علم (Science) نتایج پروژه ای مشابه اما بزر گ تر را منتشر کرد که آن هم به سرپرستی برایان نوزک بود. در این پروژه ۱۰۰ اثر روانشناختی (Psychological effects) که در سال ۲۰۰۸ در سه تا از معتبرترین مجلات روانشناسی منتشر شده بودند علوم روانشناختی (Psychological science)، مجله شخصیت و روانشناسی اجتماعی (Journal of Personality and Social Psychology) و مجله روانشناسی آزمایشی: یادگیری، حافظه و شناخت (Experimental Psychology: Learning, memory, and cognition) به بوتهٔ تکرارپذیری گذاشته شدند. از ۱۳ اثر انتخاب شده در پروژهٔ نخست ۱۰ اثر تکرار شدند و از ۱۰۰ اثر بررسی شده در پروژهٔ دوم تنها ۳۶ درصد از نتایج تکرار شدند. این نتایج جامعهٔ روانشناسان را در بهت و حیرت فرو برد. واکنش ها را با توسل به یک تقسیم بندی ساده سازی شده می توان در دو جبهه جای داد. در جبههٔ نخست آن دسته از روانشناسانی قرار داشتند که کم و بیش بحران تکرارپذیری در روانشناسی را به رسمیت شناختند و در جبههٔ دوم آن دسته از روانشناسانی قرار داشتند که به جد به مخالفت با این نتایج پرداختند و واکنشی کین توزانه در پیش گرفتند. برای مثال می توان به دنیل کانمن (Daniel Kahneman) که به دلیل پژوهش هایش در روانشناسی اجتماعی نوبل اقتصاد را از آن خود کرده است و دنیل گیلبرت (Daniel Gilbert) از دانشگاه هاروارد اشاره کرد. برایان نوزک، از بنیانگذاران و مدیر اجرایی مرکز علم شفاف پس از فرونشستن جنجال ها و عرضهٔ استدلال ها از سوی دو جبههٔ مذکور اکثریت روانشناسان به بحران تکرارپذیری معترف شدند. به همین دلیل است که حتی چاپ مقاله ای در معتبرترین مجلات روانشناسی (و البته دیگر علوم) به تنهایی به معنای صحت فرضیهٔ پیشنهادی از سوی مولفان نیست. البته با توجه به این که نظریات کارل پاپر (Karl Popper) فیلسوف علم اتریشی-انگلیسی سکهٔ رایج در روانشناسی است، نمی توان به معنای دقیق کلمه از صحت نظریه سخن گفت چرا که نظریه ها همواره در معرض ابطال پذیری (Filsification) هستند. به هر تقدیر، پیامی که بحران تکرارپذیری برای مخاطبان روانشناسی دارد این است که با دیدن مقاله ای در مجلات معتبر، مقاله و به سخن دقیق تر مولفان آن ابتدا باید به چندین پرسش پاسخ دهند و در صورتی که آن پاسخ ها قانع کننده بودند می توان نتایج منتشر شده را با محدودیت هایی که ناظر به تعمیم پذیری وجود دارد (مراجعه کنید به دلیل سوم) پذیرفت. یکی از این پرسش ها تکرارپذیری است. آیا نتایج مقالهٔ منتشر شده تکرار شده اند؟ همانطور که در قسمت های دیگر این جستار توضیح خواهم داد مشکل روانشناسی به عنوان یک رشتهٔ دانشگاهی این است که اکثریت قریب به اتفاق مقالاتی که در مجلات چاپ می شوند مقالاتی با موضوعات جدید هستند و نه مقالاتی که سعی در تکرار نتایج مقالات دیگر دارند. از این رو بیشتر مقالات چاپ شده تنها در حد همان چند مطالعه ای که چاپ شده اند تکرار شده اند و نه بیشتر. ۲_ جنون نوآوری و نتایج ایجابی (Positive results). اما اگر تکرارپذیری از بنیان های علم و به تبع آن روانشناسی است، چرا در روانشناسی تعداد آزمایش هایی که با هدف تکرارپذیری انجام می شوند آنچنان کم بوده است که در نهایت روانشناسی را با بحران تکرارپذیری مواجه کرده است؟ پاسخ را باید در نوعی جامعه شناسی روانشناسی پیدا کرد. برای مثال باید دید که روانشناسی به مثابه یک رشته از رهگذر چه روال ها (procedures) و کردوکارهایی (practices) تحقق می یابد. برای دانستن چنین امری باید به پرسش های زیر پاسخ داد: مجلات روانشناسی چه معیارهایی برای چاپ مقالات علمی دارند؟ معیارهای ارزیابی استادانی که در دانشکده های روانشناسی مشغول به کار هستند کدام اند و این استادان با چه معیارهایی ارتقاء رتبه می گیرند؟ جامعهٔ روانشناسان چه ارزشی برای ایده ها و نظریه های نو در برابر مقالاتی که به تکرارپذیری می پردازند قائل اند؟ چه فعالیت هایی در میان جامعهٔ روانشناسان تشویق و چه فعالیت هایی سبک شمرده می شوند؟ جامعهٔ روانشناسی به نحو وسواس گونه ای تاکید بر نوآوری دارد. به همین دلیل مقالاتی که در آنها فرضیه یا نظریه ای نو طراحی و به آزمون تجربی گذاشته می شوند در مقایسه با مقالاتی که سعی در تکرار نتایج پژوهش های پیشین دارند بسیار راحت تر چاپ می شوند. مقالاتی که به تکرار نتایج پیشین می پردازند غیرخلاقانه ارزیابی می شوند. تصور غالب بر این است که این مقالات چیزی به علم نمی افزایند و آن دسته از روانشناسانی که چنین آزمایش هایی را انجام می دهند به آن اندازه هوشمند نیستند که نظریه ها و فرضیه های جدید تولید کنند. به همین دلیل نگرش جامعهٔ روانشناسان و داوران علمی مجلات به نویسندگان چنین مقالاتی، اگر منفی نباشد، به هیچ عنوان مثبت نیست. اینگونه است که مجلات روانشناسی برای چاپ مقاله اولویت را به آن دسته از مقالاتی می دهند که در کار خویش نوآوری داشته باشند. اگرچه نفس نوآوری در مقام یک ایده در کلیت اش قابل دفاع است اما در این مورد سبب می شود تا کسی مشتاق تکرار نتایج پژوهش های انجام شده نباشد. به همین دلیل است که به قول کریس فرگوسن (Chris French) و موریتز هینِ (Moritz Heene) روانشناسی تبدیل شده است به قبرستانی مملو ازنظریه هایی که همچون مردگان متحرک اند. حتی بعضی از این مجلات به وضوح از نوآوری به عنوان سیاست انتشار خود یاد می کنند. مجلهٔ نیچر (Nature) چنین اظهار می دارد که برای اینکه مقاله ای برای داوری در نظر گرفته شود نتایج آن باید نو و جالب باشند. مجلهٔ کورتکس (Cortex) چنین اشاره می کند که گزارش های پژوهشی تجربی باید مطالب مهم و نویی را گزارش کنند. مجلهٔ برین (Brain) به مولفان چنین هشدار می دهد که بعضی ]مقالات[ بدون اینکه مورد داوری قرار بگیرند رد می شوند چرا که از تازگی لازم برخوردار نیستند، و سربرال کورتکس (Cerebral Cortext) گامی فراتر می نهد و اشاره می کند که حتی پس از داوری پذیرش نهایی نه فقط در گرو شایستگی فنی که در گرو رده بندی ذهنی و درونی (subjective) داور از تازگی مقاله می باشد (چیمبرز، ۲۰۱۷). بنابراین شاهد فشار مجلات روانشناسی بر مولفان برای انتشار مقالات نو و به تبع آن رد مقالاتی که سعی در تکرار نتایج پژوهش های پیشین دارند هستیم. از سوی دیگر اما استادانی که در دانشکده های روانشناسی مشغول به کار هستند برای ارتقاء شغلی نیاز به انتشار هر چه بیشتر مقاله بالاخص در مجلات علمی معتبر دارند. بین استادان و دانشجویان مقطع دکترای رشته روانشناسی اصطلاحی معروف وجود دارد که می گوید publish or perish یعنی یا مقاله چاپ کن یا بمیر. در حقیقت زندگی دانشگاهی یک روانشناس وابسته به چاپ مقاله است. درآمد، شان دانشگاهی و اجتماعی، ارتقاء شغلی، احتمال گرفتن بودجه های پژوهشی، دعوت شدن به سخنرانی در مجامع علمی و گرفتن پیشنهاد برای انجام پژوهش از سوی سازمان های خصوصی و دولتی که درآمدزا هم هستند همگی وابسته به تعداد مقالاتی هستند که وی چاپ می کند. همین هنجارهای نهادی هستند که به پژوهشگر فشار وارد می کنند تا به سوی تکرار نتایج پژوهش های پیشین نرود و به جای آن دائم دست اندرکار تولید و چاپ فرضیه ها و نظریه های نویی باشد که آزمون تکرارپذیری را از سر نگذرانده اند. مشکل دیگر اینکه همین فرضیه ها و نظریه های نو هم در صورتی منتشر می شوند که از نظر آماری معنادار باشند. به زبان ساده اگر من پژوهشی در مورد تفاوتِ دو روش تدریسْ در درسِ مثلا ادبیات فارسی انجام دهم و به این نتیجه برسم که بین این دو روش تفاوتی وجود ندارد (نتیجه ای سلبی، negative results) یا به عبارت تخصصی اگر نتوانم فرض صفرم (H0) را رد کنم حتی اگر فرضیه ام نو باشد مجلات علمی معتبر به انتشار نتایج چنین پژوهشی رغبتی نشان نمی دهند. این هنجار آنچنان فراگیر است که روانشناسان از پیش آن را درونی سازی کرده اند و دیگر زحمت ارسال نتایج سلبی به مجلات را به خود نمی دهند. به این فرایند سوگیری انتشار، publication bias یا اثر فایل های در کشومانده، file-drawer effect می گویند، یعنی انتشار به شدت نامتوازن پژوهش هایی که نتایج ایجابی (positive results یا همان رد فرض صفر) تولید کرده اند و صرف نظر از انتشار پژوهش هایی که به نتیجه نرسیده اند. اینگونه است که حتی مجلات معتبر روانشناسی مملو از نتایج ایجابی (و نه سلبی) هستند. نتایج این مجلات را می توان در ترازی انتزاعی اینگونه خلاصه کرد: همانگونه که پژوهشگران پیش بینی و فرضیه سازی کرده بودند بین گروه آزمایشی (experimental group) و گروه کنترل (control group) تفاوت آماری معنادار مشاهده شد (رد فرض صفر). نتیجهٔ این سوگیری این است که برای مثال من در مقام یک پژوهشگر آنقدر فرضیه های گوناگون را آزمون می کنم تا بالاخره نتیجه دلخواه را بگیرم (توانایی در رد یکی از فرضیه ها) و تنها در این شرایط است که نتایج خویش را منتشر می کنم. اینگونه است که خوانندگان مجلات علمی دسترسی به شرایطی که منجر به نتایج سلبی می شوند ندارند و تنها با نتایج مثبت سروکار دارند. دنیل فانلی (Daniele Fanelli) از دانشگاه ادینبورگ نمونه ای تصادفی شامل بیش از ۲۰۰۰ مقالهٔ منتشر شده از طیف وسیعی از علوم جمع آوری کرد، از علوم فضایی گرفته تا فیزیک و شیمی، زیست شناسی، روانشناسی و روانپزشکی. نتایج خیره کننده بودند. در تمام علوم، انتشار نتایج ایجابی فراگیرتر از نتایج سلبی بود. حتی در مورد علوم فضایی که بیشترین درصد نتایج سلبی در آن منتشر می شد، ۷۰ درصد مقالات نمونه از فرضیهٔ مطرح شده حمایت می کردند. نکتهٔ بسیار مهم اینکه این سوگیری در روانشناسی از همهٔ علوم دیگر بیشتر بود، یعنی چیزی بیشتر از ۹۱ درصد. ۳_ شرکت کنندگان در پژوهش ها. بیایید فرض کنیم که مشکلاتی که تا به حال طرح کرده ام همگی نادرست اند. مشکل نمونه گیری (sampling) و تعمیم پذیری (generalization) اما همچنان باقی است. هنریچ، هاینه و نورنزایان (۲۰۱۰) در مقاله ای تاثیرگذار به مشکل نمونهٔ WEIRD پرداختند. طبق استدلال این نویسندگان که با داده های تجربی نیز همراه بود به این دلیل که بیشترِ نمونه هایی که در پژوهش های روانشناسی از آنها استفاده می شود از کشورهای غربی و سفیدپوست (Western/White)، تحصیل کرده در نظام آموزشی کشورهای غربی (Educated)، صنعتی (Inustrialized)، ثروتمند (Rich) و دارای نظام های سیاسی کم وبیش دموکرات (Democratic) هستند نمی توان یافته های آنها را به کشورهایی که چنین ویژگی هایی را ندارند تعمیم داد. واضح است که نتایج یک پژوهش را به جامعه ای می توان تعمیم داد که نمونه از آن اخذ شده است. این در حالی است که معمولا تصور بر این است که اگر نتیجهٔ پژوهشی با استفاده از نمونه های آمریکایی به دست آمد، آن اثر در مورد نمونه های ایرانی هم مصداق دارد که البته نتیجه ای غیرعلمی است. در این زمینه نیک براون (Nick Brown) از دانشگاه گرونینگن آماری به دست می دهد که بسیار محل تامل است. ۹۶ درصد از شرکت کنندگان در پژوهش های روانشناسی از کشورهای غربی هستند. در حالی که کشورهای غربی تنها ۱۲ درصد جمعیت جهان را تشکیل می دهند. ۶۸ درصد از کل شرکت کنندگان در پژوهش های روانشناسی اهل آمریکا هستند که تنها ۵ درصد جمعیت جهان را تشکیل می دهد. ازاین ۶۸ درصد، ۷۷ درصدشان سفیدپوست هستند و ۶۷ درصدشان در رشته روانشناسی مشغول به تحصیل هستند. همچنین دانشجویانی که در آمریکا در رشته روانشناسی و در مقطع لیسانس تحصیل می کنند در مقایسه با بقیه جمعیت ۴۰۰۰ هزار برابر احتمال بیشتری دارند تا در یک پژوهش روانشناختی شرکت کنند. آیا به نظر شما می توان مطالعاتی را که با چنین نمونه هایی انجام می شود به جامعه ای غیر از جامعه ای که این نمونه ها از آن می آیند تعمیم داد؟ پاسخ را به عهدهٔ شما می گذارم. اما حدس بزنید برای اینکه بتوانیم نتایج داده ها را به جوامع دیگر تعمیم بدهیم چه باید بکنیم. درست است: توسل به تکرارپذیری. این در حالی است که در قسمت قبل توضیح دادیم که چرا انجام پژوهش های تکرارپذیری کار ساده ای نیست. ۴_ عدم شفافیت. این مشکل در ارتباط با مشکل دومی است که در بالا توضیح دادم یعنی میل وصف ناپذیر مجلات و به تبع آن پژوهشگران به انتشار نتایج ایجابی. ازآنجا که انتشار پی در پی مقاله در مجلات معتبر مهم است و سبب شهرت و ارتقاء شغلی روانشناسان می شود بنابراین پژوهشگران خودآگاه و ناخودآگاه دست اندرکار دستکاری نتایج پژوهش هستند تا به معناداری آماری برسند. از جمله فرایندهایی که احتمال چنین کاری را افزایش می دهد عدم شفافیت در فرایند پژوهش است. ما روانشناسان پیش از آنکه آغاز به کار پژوهشی بکنیم در هیچ جایی فرضیه های اصلی و فرعی، متغیرهای کنترل (covariates)، متغیرهای تعدیل کننده (moderators)، متغیرهای واسط (mediators)، روش های تحلیل آماری، معیارهای حذف داده ها، تعداد نمونه، شرایطی که در صورت بروزْ تعداد نمونه را افزایش می دهیم و را با شفافیت ثبت نمی کنیم. به همین دلیل از آنچه درجه آزادی پژوهشگر (researcher degree of freedom) نام دارد (سوء)استفاده می کنیم تا نتایج آماری معنادار به دست آوریم. وقتی پژوهشگر از پیش فرایندهای پژوهشی را ثبت نکرده باشد برای به دست آوردن نتیجه آماری معنادار جای مانور بسیاری دارد. با امتحان کردن انواع و اقسام تکنیک های آماری، حذف بخشی از داده ها و یا اضافه کردن تعداد آزمودنی در نهایت به نتیجه دلخواه می رسد و مقاله ای برای انتشار تولید می کند. به این کار به اصطلاح p-hacking می گویند. به بیان جورج ایستربروک اعداد را شکنجه کن، به هرآنچه بخواهی اعتراف خواهند کرد. به دلیل همین درجه آزادی پژوهشگر و البته بحران تکرارپذیری و p-hacking بود که برایان نوزک به همراه همکارانش جنبش علم شفاف (Open Science Movement) را آغاز کردند. در این جنبش که اکنون تقریبا مراحل ابتدایی خود را طی می کند روانشناسان تشویق می شوند تا از الف یا یای پروژه های پژوهشی خود را پیش از آغاز یا دست کم پیش از تحلیل داده ها به صورت علنی در اختیار عموم قرار دهند تا امکان p-hacking وجود نداشته باشد. مجلات روانشناسی نیز امروزه از پژوهشگر می خواهند تا اگر ملاحظات اخلاقی مانع نمی شوند داده ها را به صورت علنی منتشر کند تا هر که اراده کرد بتواند داده ها را تحلیل کند و به نتایج مشابه برسد (شاید هم نرسد!). بعضی از مجلات نیز فرایند داوری را در همین مرحله انجام می دهند و نه پس از انجام پژوهش، به این معنا که پژوهشگر پس از ثبت آنلاین فرایند کامل پژوهش آن را به مجله ارسال می کند و مجله آن را داوری می کند. پس از پذیرفته شدن پژوهش، پژوهشگر آغاز به کار می کند و با توجه به اینکه مقاله اش از پیش داوری شده و برای چاپ پذیرفته شده است صرف نظر از اینکه نتایجش به لحاظ آماری معناداری هستند یا نه پژوهش اش را در انتهای کار در مجله مورد نظر منتشر می کند. اینگونه دیگر انگیزه ای برای توسل به درجه آزدی پژوهشگر برای دستکاری داده ها به منظور گرفتن نتایج دلخواه وجود نخواهد داشت. مشکل دیگری که به دلیل عدم شفافیت بروز می کند HARKing (فرضیه سازی پس از دیدن نتایج) نام دارد. این اصطلاح را روانشناس اجتماعی نوربرت کر (Norbert Kerr) ابداع کرد. از آنجا که داوران مجلات از پیش نسبت به فرضیه پژوهشگران آگاه نیستند بنابراین پژوهشگران این امکان را دارند تا پس از تحلیل های آماری فرضیه خود را عوض کنند (در صورتی که فرضیه اولیه شان تایید نشده باشد اما به نتیجه ایجابی دیگری رسیده باشند) و آنگاه مقدمه مقاله را با توجه به آن فرضیه که فرضیه ای پساتجربی (Ad hoc hypothesis) است بنویسند. بدین منظور پس از اینکه فرضیه را در هماهنگی با نتایج ایجابی عوض کردند به سراغ پیشینه پژوهشی می روند تا مقالاتی هم در تایید آن نتیجه که از ابتدا انتظارش را نداشتند پیدا کنند. طبیعی است که فرضیه پساتجربی را نمی توان ابطال کرد. نقدهای دیگری نیز به روانشناسی و دیگر یافته های علمی که مبتنی بر آزمایش های تجربی هستند وارد است اما به دلیل اجتناب از اطاله کلام آنها را به مقاله ای دیگر موکول می کنم. آنها که به علمی بودن روانشناسی باور دارند باید به چنین نقدهایی به جد توجه کنند بالاخص در کشور ما ایران که فرایندهای ایدئولوژیک نیز در دستکاری یافته ها تاثیر می گذراند. برای مثال از دوستی می شنیدم که اگر نتایج پژوهش با در تضاد یا مغایرت با باورهای پذیرفته شده دینی باشد بعضی از استادان دانشجویان را تشویق به دستکاری داده ها می کنند تا نتایج پژوهش های تجربی با باورهای دینی سازگار افتند. جامعه علمی ایران بالاخص جامعه رواشناسی باید به جنبش شفافیت در روانشناسی بپیوندد. اما خواننده ممکن است بپرسد چرا باید برای یافته هایی که در مجلاتی منتشر می شوند که اغلب افراد آنها را نمی خوانند الا همان روانشناسان چنین نگران بود. پاسخ اینجاست که ما روانشناسان بنا به یافته هایی که در همین مجلات منتشر می شوند به مراجعان خود توصیه می کنیم، به آنها مشاوره می دهیم و سیاست گذاران بر مبنای همین یافته ها از بیت المال هزینه می کنند و سیاست هایی را طراحی می کنند که بر سلامت ذهن و ضمیر افراد تاثیرگذار است. جامعه روانشناسان باید بیش از پیش به جای تبلیغ رشتهٔ خویش به فکر نقد ریشه ای آن باشد. این مقاله دعوتی است از جامعه روانشناسان از جمله سازمان نظام روانشناسی، انجمن روانشناسی اجتماعی ایران، انجمن روانشناسی ایران و دیگر نهادهای متولی این رشته که به جنبش شفافیت بپیوندند و وارد فرایند نقد روانشناسی به مثابه یک نهاد شوند. ناگفته نماند که این نقد در بطن تفسیر پوزیتیویستی از علم معنا می یابد. رویکردهای انتقادی به روانشناسی به نحو بسیار بنیادی تری علمی بودن، بی طرف بودن، کاشف از حقیقت بودن و به طور کلی مبانی پوزیتیویستی علم را که روانشناسی بر آنها استوار است نقد می کنند و روایتی به کلی متفاوت از روانشناسی عرضه می کنند. در مقاله ای دیگر به نقد روانشناسی از این دیدگاه خواهم پرداخت. نیما اورازانی (پژوهشگر و مدرس در دانشگاه ملی استرالیا) برگرفته از سایت خبری صدانت