هوش مصنوعی و چالشهای دموکراسی
محورهای موضوعی : پژوهش سیاست نظری
1 - دانشیار گروه علوم سیاسی، دانشگاه اراك، ایران
کلید واژه: هوش مصنوعی, دموکراسی, حریم خصوصی, توتالیتاریسم, دستکاری ذهنی. ,
چکیده مقاله :
روند روزافزون کاربرد هوش مصنوعی در ابعاد مختلف زندگی ایجاب میکند که پیامدهای آن بر جامعۀ سیاسی، از نظر علمی بررسی شود. هدف مقالۀ حاضر، عمل به این ضرورت پژوهشی است و در این چارچوب به این پرسش محوری پاسخ میدهد: فناوری هوش مصنوعی، چگونه و از چه جنبههایی بر عملکرد دموکراسی تأثیر میگذارد؟ برای پیشبرد هدف مقاله، بخش اصلی آن به تبیین چالشهای دموکراسی در عصر دیجیتال متمرکز است. مدل مفهومی پژوهش متشکل از چهار بعد است که در هر کدام از آنها، چالشهای استقرار هوش مصنوعی بر دموکراسی شناسایی و تحلیل شده است. یافتههای پژوهش نشان میدهد که هوش مصنوعی هرچند در بردارندۀ ظرفیتهایی برای بهبود عملکرد دموکراسی است، چالشها و تهدیدهایی درون خود دارد که میتواند به مسخ دموکراسی منتهی شود. مهمترین چالشهای هوش مصنوعی برای دموکراسی عبارتند از: قابلیت دستکاری افکار عمومی، مخدوش شدن محیط اطلاعاتی در حوزۀ عمومی، شکاف دیجیتال وگسترش نابرابری و تبعیض و بالاخره خطر خودکامگی و توتالیتاریسم. هر کدام از این چالشها در یک رابطۀ سیستماتیک همدیگر را بازتولید میکنند. اما در این میان، ابرچالش دموکراسی، خطر توتالیتاریسم است که نتیجۀ کارکرد سه چالش دیگر ارزیابی میشود. چارچوب نظری پژوهش، مجموعهای از نظریههای جدید مکتب انتقادی است که به بررسی آثار و پیامدهای سلطهآمیز فناوری در جامعۀ معاصر پرداختهاند. رویکرد پژوهش، تبیینی یا علتکاو است. روش تجزیه و تحلیل اطلاعات کیفی و روش جمعآوری اطلاعات نیز کتابخانهای است.
The increasing application of artificial intelligence (AI) across various aspects of life necessitates a scientific examination of its consequences for political society. The present article aims to address this research imperative by exploring the central question: In what ways and through which mechanisms does AI technology impact the functioning of democracy? To achieve this objective, the core section of the article focuses on analyzing the challenges democracy faces in the digital era. The study’s conceptual model consists of four dimensions, each identifying and analyzing the challenges AI poses to democracy. The findings indicate that while AI holds potential for enhancing democratic performance, it also harbors challenges and threats that could ultimately lead to the distortion of democracy. The primary challenges AI presents to democracy include the manipulation of public opinion, the distortion of the public information environment, the digital divide and the expansion of inequality and discrimination, and, ultimately, the risk of autocracy and totalitarianism. These challenges interact in a systematic manner, reinforcing one another. Among them, the overarching challenge for democracy is the threat of totalitarianism, which emerges as a consequence of the other three challenges. The theoretical framework of the study draws on contemporary critical theory perspectives that examine the dominative effects of technology in modern society. The research adopts an explanatory (causal-inquiry) approach, employing qualitative data analysis and a library-based method for data collection.
Keywords: Artificial intelligence, democracy, privacy, totalitarianism, cognitive manipulation.
Introduction
The complexity and widespread applications of artificial intelligence (AI) have positioned our world on the brink of an “algorithmic governance” era. Recent advancements in AI technology have facilitated its extensive use across various political, social, and economic domains. AI is being widely applied in recommendation systems, customer service platforms, search engines, medical diagnostics, logistics, finance, voice and speech recognition, predictive market analysis, music production, and content generation. In smart cities, specialized AI analyzes real-time traffic data and designs and implements service delivery models. Azure, Google Cloud and Amazon Web Services may soon allow people to easily use AI-based websites and applications. These advancements have made it increasingly important to understand the economic, social, and political implications of this technology. Although many of the applications and effects of AI are future-oriented, it is essential for scholars to engage early in the discussion and evaluate its consequences. A meaningful assessment of AI's social and political impacts requires special attention to how AI affects political competition and the functioning of democracy.
Research Conceptual Model:
The purpose of this paper is to address the mentioned research gap and, within this framework, to answer the followingresearch question: What are the impacts of AI advancements on democratic functioning? The hypothesis explored in this paper is that the development of AI presents some challenges and threats that could lead to the distortion of democracy and the rise of totalitarian regimes. In this hypothesis, the independent variable is the uncontrolled development of AI technologies, while the dependent variable is the crisis of democracy and the rise of new totalitarianism. To test this hypothesis, based on existing evidence and philosophical insights, several fundamental challenges to democracy in the digital age were identified. These challenges are classified and examined within a conceptual model at four levels include the cognitive, social communications, economic, and political levels. At the cognitive level, the challenge is the manipulation of public opinion; at the social communications level, the challenge is the distortion of the informational environment; at the economic level, the challenge is the expansion of inequality and discrimination; and finally, at the political level, the danger of autocracy and totalitarianism.
Theoretical Framework:
In parallel with the growing application of technology in contemporary life, a group of theorists, at the intersection of the philosophy of technology, political philosophy, and sociology, has critiqued the oppressive effects of technology in modern society. Among the most prominent theorists in this group are Lewis Mumford, Martin Heidegger, Jacques Ellul, Yuval Noah Harari, and, specifically, the later thinkers of the Frankfurt School. In this study, these theories are classified at the name of “new theories of the critical school” and applied as the theoretical framework for the research. These theories have allowed us to argue that the future of democracy is severely threatened by modern technologies such as artificial intelligence.
Discussion and Results:
With the development of AI technology, some optimistic thinkers have proposed that the modern world is closer than ever to realizing the ideal of direct democracy. Their argument is that AI-based digital infrastructures could herald the revival of Athenian direct democracy, thereby bridging the gap between the government and society that has expanded due to population growth and the complexity of social life. Through this process, a bloated and distant government could transform into an agile and community-connected government. Despite these optimistic possibilities, we must not allow our thinking to be guided by such perspectives and fall easily for utopian narratives about AI-driven democratic progress. In this context, this paper attempts to answer this question: What are the challenges AI poses for advancing democracy in the digital age? The findings of the research reveal a system of AI challenges for democracy, in which each challenge is tightly and systematically connected to the others. In other words, the expansion of any one challenge tends to reproduce others. These challenges include:
- Mental Manipulation: Manipulating of public opinion is one of the fundamental challenges of AI in democracies. By utilizing AI and tools like computational propaganda, powerful groups and governments can steer public opinion in a manipulated direction. Tools such as social media bots or fake accounts can disseminate specific political messages and even automatically engage in online discussions to exert significant influence on political trends.
- Distortion of the Public Informational Environment: Democracies require a healthy and trustworthy public sphere for exchanging information; however, AI, in collaboration with digital media and personalization algorithms, has facilitated the spread of fake news, undermining this sphere. With the rise of social media and digital platforms, access to information is increasingly influenced by digital patterns, leading to the spread of misleading information and deepfakes, eroding public trust, and diminishing the quality of political decision-making.
- Reproducing Inequality and Discrimination: Another major challenge of AI in democracies is the risk of increasing inequality and discrimination. AI may exacerbate social biases embedded in data and algorithms. These biases could lead to certain social groups being excluded from the benefits of new technologies and facing discrimination in areas such as social rights, police or judicial decision-making. These issues could amplify existing inequalities and weaken the principles of social justice in democracies.
- The Rise of Totalitarianism: the main challenge to democracy is the risk of totalitarianism, which is being enhanced in the digital age through AI technologies. Totalitarian regimes involve pervasive intervention in all aspects of people's lives, political repression, censorship, and mass surveillance. Digital technologies now provide new tools for surveillance and mental manipulation, which could reinforce totalitarianism. AI, as one of these technologies, not only assists autocratic rulers in election rigging, misinformation spread, and suppressing opposition, but also creates the potential for surveillance and total control over individuals. AI could thus become a tool for new forms of totalitarianism, where individuals are constantly at risk of hacking and manipulation. Thus, it could be argued that AI is becoming a "Leviathan" of new totalitarianism.
Referring to Hannah Arendt's philosophy help us to understand how AI could become politically problematic. Arendt believed that totalitarianism arises in the absence of political action, which requires cooperation, solidarity, trust, collective action, and an escape from isolation. AI's functioning has the potential to eliminate the grounds for political action. For instance, consider how social media creates public anxiety, which could lead to tribalism. We are constantly bombarded with bad news and sensationalized stories, leading us to trust only the information from our own “tribal” group, reinforced by echo chambers and cognitive bubbles. Additionally, when Arendt argues that Nazi concentration camps transformed people into mere objects through controlled scientific methods, one can consider how AI-driven behavioral manipulation might have a similar moral impact, reducing people to entities ready to be hacked.
Investment in AI helps authoritarian governments enhance state capacities at the cost of individual freedoms. A clear example is China, which uses AI-derived data for social planning and control. Moreover, AI's military and security applications are rapidly expanding. The European Union, the United States, China, and Russia all recognize AI as a strategic geopolitical and economic domain. For instance, Russia has prioritized the use of AI for optimizing military and intelligence systems as part of its bid to become a global AI leader. However, the normative role and practical implications of AI in this domain remain highly contested. The global AI race presents serious risks for international peace and security, especially as AI capabilities of autocratic states and malicious actors like cybercriminals can be used for nefarious purposes.
Conclusion:
Based on the analysis presented, AI technology, while promising improvements to democracy and facilitating communication between governments and citizens, also carries serious threats to democratic advancement. Challenges such as the manipulation of public opinion, the distortion of the informational environment, the Reproducing social inequalities, and the risk of digital totalitarianism could pose significant threats to the stability of democracies. Thus, we must avoid overly optimistic and utopian views that consider AI as a tool for achieving perfect democracy and instead focus on the challenges and risks it entails.
As these challenges are systematically interconnected, policymakers and democratic advocates must monitor and regulate the development of these technologies, ensuring that AI supports democratic principles and human rights rather than undermining them. In this regard, AI governance becomes essential. AI governance must ensure that the dynamics of AI applications and their effects on democracy are continuously evaluated and controlled. The analysis of AI's impact on democracy depends on the characteristics of the AI in question, its application conditions, and the diverse forms of democracy interacting with AI.
As a suggestion, scholars in the social sciences should treat AI as an influential variable in contemporary democratic analysis and address the internal mechanisms and specific effects of this technology. Meanwhile, AI specialists must also consider the consequences of AI's development for democracy. Evaluations solely relying on technological mechanisms risk overstating AI's impact on social systems, while sociological insights alone may misrepresent AI's actual functions. This issue elevates the study of AI’s impact on democracy to a crucial interdisciplinary task within academic circles.
References
Acemoglu, D. (2021) “Harms of AI”. In J. B. Bullock; Y. C. Chen; J.
Himmelreich; V. M. Hudson; A. Korinek; M. M. Young; B. Zhang (Eds.). The Oxford handbook of AI governance. Oxford. London: University Press. Available at: https://doi.org/10.3386/w29247. [19/8/2024].
Arendt, H. (1951). The origins of totalitarianism. New York: Schocken Books.
Coeckelbergh, M. (2022). The political philosophy of AI: An introduction. Cambridge: Polity.
Gardner, H. E. (2011) Frames of Mind: The Theory of Multiple Intelligences. 3rd edition. New York: Basic Books.
Jungherr, A. (2023) “Artificial Intelligence and Democracy: A Conceptual Framework”. Social Media+Society. July-September, 1-14. Available at: Sagepub.com/journals-permeations. Doi: 10.1177/20563051231186353.
Kissinger, H.; Schmidt, E.; Huttenlocher, D. P.; Schouten, S. (2021). The age of AI: and our human future. New York: Little Brown and Company.
Larson, E. J. (2021) The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Cambridge: Harvard University Press.
Latour, B. (2007) Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press.
Muller, C. (2020)”The Impact of Artificial Intelligence on Human Rights, Democracy and the Rule of Law”. ALLAI. March 20. Online Published. Available at: https://allai.nl/wp-content/uploads/2020/06/The-Impact-of-AI-on-Human-Rights-Democracy-and-the-Rule-of-Law-draft.pdf. [19/8/2024].
Nobel, S.U. (2018) New York University Press.
Rashidi, A. (2022). Russia’s Artificial Intelligence Strategy and Challenges Ahead. Central Asia and The Caucasus Journal, 27(116), 59-90 [in Persian].
Risse, M. (2022) “Artificial Intelligence and the Past, Present, and Future of Democracy”.in S. Voeneky; P. Kellmeyer; O. Mueller; W. Burgard(eds). The Responsible Artificial. 85-103. Published online by Cambridge University Press. Available at: https://doi.org/10.1017/9781009207898.009. [22/7/2024].
Smith, B. C. (2019) The promise of artificial intelligence: Reckoning and judgment. Cambridge: MIT Press.
Turkle, S. (2011) Alone Together: Why we Expect More from Technology and Less from Each Other. New York: Basic Books.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. New York: Public Affairs.
آرنت، هانا (1366) توتالیتاریسم، ترجمه محسن ثلاثی، تهران، سازمان انتشارات جاویدان.
باقری دولت¬آبادی، علی (1403) «تأثیر هوش مصنوعی بر نظریههای جریان اصلی روابط بین¬الملل»، فصلنامه راهبرد سیاسی، سال هشتم، شماره 1، صص 7-27.
باقری دهآبادی، علیرضا (1393) «بررسی رویکردها و ابعاد هژمونی تکنولوژی بر انسان»، مجله مطالعات بینرشتهای در رسانه و فرهنگ، سال چهارم، شماره 1، صص 1-28.
برکان، ماجا (1402) «هوش مصنوعی و مردمسالاری؛ تأثیر اطلاعات غلط، ربات اجتماعی و هدفگذاری سیاسی»، ترجمه سارا صلح¬چی، فصلنامه تمدن حقوقی، سال ششم، شماره 18، صص 155-172.
بشيريه، حسين (1378) انديشه هاي ماركسيستي، تهران، نشرني.
جعفری هزارانی، نورالدین (1403) «تکنولوژی و توتالیتاریسم: هوش مصنوعی ابزاری برای دیکتاتور؟!» سیویلیکا، 11 تیر.
قابل دسترسی در: https://civilica.
com/doc/2017497[18/5/1403] دهقانی فیروزآبادی، سید جلال و سعید چهرآزاد (1402) هوش مصنوعی و روابط بین الملل، تهران، بنیاد حقوقی میزان.
رشیدی، احمد (1400) «استراتژی هوش مصنوعی روسیه» فصلنامه علمی مطالعات آسیای مرکزی و قفقاز، سال بیست¬وهفتم، شماره 116، صص 59-90.
---------- (1386) «بازاندیشی دموکراسی و تحول رابطه جامعه و دولت در عصر جهانی شدن»، فصلنامه سیاست، سال سی¬وهفتم، شماره 4، صص 113-138.
زوبوف، شوشنا (1403) عصر سرمایهداری نظارتی: مبارزه برای آیندۀ انسان در جبهۀ جدید قدرت، ترجمۀ احسان شاه¬قاسمی، تهران، علمی و فرهنگی.
فكوهي، ناصر (1386) تاريخ انديشه و نظريه¬هاي انسان¬شناسي، چاپ پنجم، تهران، ني.
کورتیس، پولی (1402) «هوش مصنوعی جان تازهای به سیاست میدهد»، ترجمه لیلا احمدی، سایت عصر ایران، 29 شهریور، قابل دسترسی در: https://www.
asriran.
com/fa/news/908038[18/5/1403].
کوکلبرگ، مارک (1403) درآمدی بر فلسفۀ سیاسی هوش مصنوعی، ترجمۀ علی¬اصغر رییسزاده، تهران، مؤسسه فرهنگی دکسا.
گيبينز، جان آر و بو ريمر (1381) سياست پست¬مدرنيته، درآمدي بـر فرهنـگ و سياسـت معاصـر، ترجمـة منصور انصاري، تهران، گام نو.
طهماسبی، جواد (1403) «هوش مصنوعی و دموکراسی»، هفته¬نامه تجارت [نشریه الکترونیکی]، اول اردیبهشت، قابل دسترسی در: https://www.
tejaratefarda.
com/fa/tiny/news-46746[19/5/1403] معینی علمداری، جهانگیر (1392) روش¬شناسی نظریه¬های جدید در علم سیاست، تهران، دانشگاه تهران.
وولی، ساموئل سی و فلیپ ان هاورارد (1400) دستکاری در رسانه¬های اجتماعی: پروپاگاندای رایانشی، ترجمه عباس رضایی ثمرین و رسول صفرآهنگ، تهران، همشهری.
هراری، یوال نوح (1397) انسان خداگونه: تاریخ مختصر آینده، ترجمه زهرا عالی، تهران، فرهنگ نشر نو.
------------- (1403) «هوش مصنوعی و دموکراسی»، ترجمه نوید رضایی، سایت زیگپ [پایگاه اینترنتی]، اول اردیبهشت، قابل دسترسی در: https://zigap.ir/mag/conversation-yuval-noah-harari-artificial[17/5/1403].
Acemoglu, D. (2021) “Harms of AI”. In J. B. Bullock; Y. C. Chen; J. Himmelreich; V. M. Hudson; A. Korinek; M. M. Young; B. Zhang (Eds.). The Oxford handbook of AI governance. Oxford. London: University Press. Available at: https://doi.org/10.3386/w29247. [19/8/2024].
Aviram, H.; Bragg, A.; Lewis, C. (2017) “Felon disenfranchisement”. Annual Review of Law and Social Science. Vol. 13. 295–311. Avalable at: https://doi.org/10.1146/annurev-lawsocsci-110316-113558. [10/8/2024].
Dreyfus, H. L. (2008) On the Internet. London: Routledge.
Ellul, J. (1964) The Technological Society. Translated by: J. Wilkinson. New York: Vintage Books. Available at: https:// ia803209.us. archive. org/2/items/ Jacques Ellul The Technological Society/ Jacques%20Ellul%20-%20The%20 Technological%20Society. Pdf. [11/7/2024].
Gardner, H. E. (2011) Frames of Mind: The Theory of Multiple Intelligences. 3rd edition. New York: Basic Books.
Jungherr, A. (2023) “Artificial Intelligence and Democracy: A Conceptual Framework”. Social Media+Society. July-September, 1-14. Available at: Sagepub.com/journals-permeations. Doi: 10.1177/20563051231186353.
Jungherr, A.; Schroeder, R. (2023) “Artificial intelligence and the public arena”. Communication Theory. 33(3). Available at: https:// doi.org/10.1093/ct/ qtad006. [15/8/2024].
Haraway, D. J. (1991) Simians, Cyborgs, and Women: The Reinvention of Nature. New York, Routledge, 1991.
Kissinger, H.; Schmidt, E.; Huttenlocher, D. P.; Schouten, S. (2021). The age of AI: and our human future. New York: Little Brown and Company.
Larson, E. J. (2021) The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Cambridge: Harvard University Press.
Latour, B. (2007) Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press.
Muller, C. (2020) ”The Impact of Artificial Intelligence on Human Rights, Democracy and the Rule of Law”. ALLAI. March 20. Online Published.
Available at: https://allai.nl/wp-content/uploads/2020/06/The-Impact-of-AI-on-Human-Rights-Democracy-and-the-Rule-of-Law-draft.pdf. [19/8/2024].
Mumford, L. (2010) Technics and Civilization. Illinois, Reprint edition. University of Chicago Press. Available at: https:// monoskop.org/ images/f/fa/Mumford_Lewis_Technics_and_ Civilization. pdf. [28/6/2024].
Nobel, S.U. (2018) Algorithms of Oppression: How Search Engines Reinforce Racism: New York University Press.
Risse, M. (2022) “Artificial Intelligence and the Past, Present, and Future of Democracy”.in S. Voeneky; P. Kellmeyer; O. Mueller; W. Burgard(eds). The Responsible Artificial. 85-103. Published online by Cambridge University Press. Available at: https://doi.org/10.1017/9781009207898.009. [22/7/2024]. Smith, B. C. (2019) The promise of artificial intelligence: Reckoning and judgment. Cambridge: MIT Press.
Turkle, S. (2011) Alone Together: Why we Expect More from Technology and Less from Each Other. New York: Basic Books.
دوفصلنامه علمي «پژوهش سیاست نظری»
شماره سیوششم، پاییز و زمستان 1403: 387- 351
تاريخ دريافت: 21/07/1403
تاريخ پذيرش: 01/12/1403
نوع مقاله: پژوهشی
هوش مصنوعی و چالشهای دموکراسی
احمد رشيدي1
چکیده
روند روزافزون کاربرد هوش مصنوعی در ابعاد مختلف زندگی ایجاب میکند که پیامدهای آن بر جامعۀ سیاسی، از نظر علمی بررسی شود. هدف مقالۀ حاضر، عمل به این ضرورت پژوهشی است و در این چارچوب به این پرسش محوری پاسخ میدهد: فناوری هوش مصنوعی، چگونه و از چه جنبههایی بر عملکرد دموکراسی تأثیر میگذارد؟ برای پیشبرد هدف مقاله، بخش اصلی آن به تبیین چالشهای دموکراسی در عصر دیجیتال متمرکز است. مدل مفهومی پژوهش متشکل از چهار بعد است که در هر کدام از آنها، چالشهای استقرار هوش مصنوعی بر دموکراسی شناسایی و تحلیل شده است. یافتههای پژوهش نشان میدهد که هوش مصنوعی هرچند در بردارندۀ ظرفیتهایی برای بهبود عملکرد دموکراسی است، چالشها و تهدیدهایی درون خود دارد که میتواند به مسخ دموکراسی منتهی شود. مهمترین چالشهای هوش مصنوعی برای دموکراسی عبارتند از: قابلیت دستکاری افکار عمومی، مخدوش شدن محیط اطلاعاتی در حوزۀ عمومی، شکاف دیجیتال وگسترش نابرابری و تبعیض و بالاخره خطر خودکامگی و توتالیتاریسم. هر کدام از این چالشها در یک رابطۀ سیستماتیک همدیگر را بازتولید میکنند. اما در این میان، ابرچالش دموکراسی، خطر توتالیتاریسم است که نتیجۀ کارکرد سه چالش دیگر ارزیابی میشود. چارچوب نظری پژوهش، مجموعهای از نظریههای جدید مکتب انتقادی است که به بررسی آثار و پیامدهای سلطهآمیز فناوری در جامعۀ معاصر پرداختهاند. رویکرد پژوهش، تبیینی یا علتکاو است. روش تجزیه و تحلیل اطلاعات کیفی و روش جمعآوری اطلاعات نیز کتابخانهای است.
واژههای کلیدی: هوش مصنوعی، دموکراسی، حریم خصوصی، توتالیتاریسم، دستکاری ذهنی.
مقدمه
پیشرفتهای اخیر فناوری هوش مصنوعی، امکان بهکارگیری گسترده آن را در حوزههای مختلف سیاسی، اجتماعی و اقتصادی فراهم کرده است؛ به طوری که میتوان از احتمال سلطۀ هوش مصنوعی بر سرتاسر عرصههای زندگی صحبت کرد. به سخن دیگر، با توجه به پیچیدگیها و کاربردهای گستردۀ هوش مصنوعی، جهان ما به طرز شگفتانگیزی در آستانۀ «حکومت الگوریتمی» قرار گرفته است. کافی است نگاهی به گوشیهای هوشمند خود بیندازیم که برنامههای کاربردی چون سیری، ترجمۀ گوگل، برنامههای مکانیاب، اخبار برگزیده، بازیهای سرگرمی و صدها برنامۀ دیگر بر آن نصب هستند و هر لحظه با آنها سروکار داریم. هوش مصنوعی به طور گسترده در سیستمهای توصیهکننده، سیستمهای خدمات شخصی مشتری، مرورگرهای جستوجو، تشخیص پزشکی، تدارکات، امور مالی (از ارزیابی اعتبار تا پرچمگذاری معاملات)، شناسایی صدا و گفتار، تولید نوشته، رباتهای تجاری پیشبینیکنندۀ بازار، تولید موسیقی و نوشتن مقاله (مانند تولید متن با چت جیپیتی) به کار گرفته شده است. از هوش مصنوعی محدود یا تخصصی(1)، مجریان قانون بهویژه در حوزههای نظامی و انتظامی استفاده میکنند. حکومتها از هوش مصنوعی در ردیابی افراد، تشخیص چهره و صدا و عبور از گیتها استفاده میکنند. در شهرهای هوشمند با هوش مصنوعی تخصصی، دادههای ترافیکی را در لحظه، تجزیه و تحلیل و چگونگی ارائه خدمات را طراحی و اجرا میکند. همهگیری کووید 19، استفاده از هوش مصنوعی برای اختراع و ساخت دارو را سرعت بخشید و به پردازش و تفسیر تغییرات ژنتیکی ویروسها کمک کرد. خدمات وب آمازون، آزور و گوگل کلود میتواند بهزودی این امکان را به مردم بدهند که بهراحتی استفاده از وبسایتها، برنامههای هوش مصنوعی را به کار ببرند (Risse, 2022: 86).
تازهترین گام در توسعه هوش مصنوعی، استفاده از مدلهای زبانی بزرگ(2) و سایر مدلهای ترانسفورماتور برای تولید محتوای متنی، تصویری، ویدیویی یا صوتی است که بحثهای گستردهای را درباره خود در عرصۀ عمومی ایجاد کرده است.
از سوی دیگر هوش عمومی مصنوعی (AGI)، نشاندهندة جهشی نظری در فناوری هوش مصنوعی است که هدف آن، خلق ماشینهایی است که فراتر از انجام وظایف خاص قادر به درک، نوآوری، انطباق و تقلید همهجانبه از تواناییهای شناختی انسان هستند. البته هوش عمومی مصنوعی هنوز وارد مرحلۀ ساخت و استقرار نشده، اما موضوع بحث و گمانهزنیهای قابل توجه در جامعة علمی است. هرچند تقلید کارهای انسانی و انجام ماهرانۀ آنها توسط رباتها برای ما چالشبرانگیز است، برخی تحقیقات نشان میدهد که هوش عمومی مصنوعی بالاخره در زندگی بشری به کار گرفته خواهد شد (ر.ک: Larson, 2021).
موفقیت و استقرار گسترده هوش مصنوعی، ضرورت آگاهی از پیامدهای اقتصادی، اجتماعی و سیاسی این فناوری را افزایش داده است. هرچند بسیاری از کاربردها و آثار هوش مصنوعی مربوط به آینده است، مهم است که دانشپژوهان علوم اجتماعی و سیاسی، زودهنگام وارد این بحث شوند و به چگونگی استقرار و ارزیابی پیامدهای آن بپردازند. برای ارزیابی معنادار تأثیرات اجتماعی و سیاسی هوش مصنوعی، باید عملکرد آن را بررسی کنیم. این مهم در برگیرندۀ بررسی استفاده از هوش مصنوعی در سیاست، حکومت و حکمرانی است. در این میان به نظر میرسد که مطالعۀ چگونگی تأثیر هوش مصنوعی بر رقابت سیاسی و عملکرد دموکراسی، اولویت دارد.
نظریهپردازان سیاسی، دموکراسی را به عنوان یک ایدهآل یا چارچوب نهادی در نظر میگیرند. دموکراسیهای نوین در برگیرندۀ ساختارهایی برای انتخاب جمعی هستند که در چارچوب آن به طور دورهای، افرادی برای هدایت امور عمومی به قدرت میرسند. نظامهای سیاسی، زمانی ماهیت دموکراتیک دارند که بین دولت و جامعه، پیوند عمیقی برقرار باشد، به گونهای که خواستههای واقعی مردم از طریق سازوکارهای پیچیده مشارکتی در شریانهای نهادهای سیاسی به جریان درآید (رشیدی، 1386: 114). فناوری به عنوان یک متغیر دخیل همواره در این فرایند حضور دارد. فناوری کمک میکند که شهروندان، اطلاعات موردنیاز را برای مشارکت سیاسی به دست آورند؛ دستگاههای الکترونیکی و سایر تجهیزات در مبارزات انتخاباتی و رأیگیری مورد استفاده قرار میگیرند؛ فناوریهای جدید تعیین میکنند که سیاستمداران چگونه وارد تعامل با شهروندان شوند و دیوانسالاران چگونه تصمیم بگیرند. هوش مصنوعی، نحوه تصمیمگیری جمعی و نقش انسانها در این فرایند را تحت تأثیر قرار میدهد.
«برونو لاتور»، نظریهپرداز کلیدی در حوزۀ مطالعات علم و فناوری تأکید دارد که فعالیتهای انسانی نهتنها به عاملیت انسانها بستگی دارد، بلکه به موجودیتهای غیر انسانی نیز وابسته است. او این روابط چندگانه را شبکههای بازیگر 2مینامد. بدون توجه به نام این نظریه، لاتور به منظور تأکید بر نقش بازیگران غیر انسانی ترجیح میدهد به جای اصطلاح بازیگران3 از اصطلاح کنشگران4 استفاده کند (ر.ک: Latour, 2007). چنین رویکردی در یک نگاه انتقادی، تأثیر فناوریهایی چون هوش مصنوعی در زندگی انسانی را بیش از پیش برجسته میسازد. اینجاست که بررسی تأثیر هوش مصنوعی بر دموکراسی ضرورت مییابد.
هدف مقالۀ حاضر، عمل به این ضرورت پژوهشی است و در این چارچوب به این پرسش محوری پاسخ میدهد: پیشرفتهای فناوری هوش مصنوعی، چگونه و از چه جنبههایی بر عملکرد دموکراسی تأثیر میگذارد؟ فرضیهای که در پاسخ به این پرسش در مقالۀ حاضر بررسی شده این است که کاربرد هوش مصنوعی در عرصههای مختلف زندگی هرچند در بردارندۀ ظرفیتهایی برای بهبود عملکرد دموکراسی است، چالشها و تهدیدهایی درون خود دارد که میتواند به مسخ دموکراسی و قدرت گرفتن رژیمهای خودکامه و توتالیتر منتهی شود. از آنجا که هوش عمومی مصنوعی فعلاً در مرحلۀ تحقیقات و گمانهزنی قرار دارد و هنوز وارد عرصۀ عملی نشده است، از اینرو تمرکز مقاله در فرایند بررسی فرضیۀ یادشده عمدتاً متمرکز بر پیامدهای هوش مصنوعی محدود (NIA) بر عملکرد دموکراسی است و در این چارچوب، چالشهای دموکراسی را میکاود.
چارچوب نظری پژوهش، مجموعهای از نظریههای جدید مکتب انتقادی است که در نقطۀ تماس فلسفه فناوری، فلسفه سیاسی و جامعهشناسی به نقد آثار و پیامدهای سلطهآمیز فناوری در جامعۀ معاصر پرداختهاند. رویکرد پژوهش، تبیینی یا علتکاو است. روش تجزیه و تحلیل اطلاعات، کیفی و روش جمعآوری اطلاعات نیز کتابخانهای است که از طریق رجوع به کتابها، مقالات و گزارشهای تخصصی منتشرشده، اعم از فیزیکی و دیجیتال انجام شده است.
پیشینه پژوهش
ادبیات مربوط به بررسی پیامدهای هوش مصنوعی بر دموکراسی هنوز توسعه نیافته و در آغاز راه است؛ زیرا هوش مصنوعی خود فناوری جدید است و هنوز آیندۀ کاربرد و آثار آن در حوزههای مختلف سیاسی، اجتماعی و اقتصادی روشن نیست. با وجود این با جستوجوی مختصر در موتورهای جستوجوی اینترنتی، فهرست متنوعی از نوشتهها را میتوان در ارتباط با این موضوع پیدا کرد. بخش عمدۀ این فهرست شامل کارهای ژورنالیستی است که صرفاً متوقف بر طرح موضوع و فاقد عمق نظری و تحلیلی هستند. اندک آثاری هم وجود دارند که با رویکرد علمی و تحلیلی به موضوع پرداختهاند. از میان این آثار، مرتبط با موضوع مقاله میتوان به موارد زیر اشاره کرد:
کیسینجر5 و دیگران (2021) در کتاب «عصر هوش مصنوعی و آیندۀ انسانی ما»، ضمن بررسی ظرفیتهای هوش مصنوعی برای زندگی عمومی، بحث خود را روی چالشهای عمومی هوش مصنوعی متمرکز کردهاند و در این میان به بررسی چالشهای آن بر هویت انسانی، اقتصاد و زندگی سیاسی انسانها پرداختهاند. آنها هشدار دادهاند که اگر توسعه هوش مصنوعی بدون دستورالعملهای اخلاقی و تنظیمگری قانونی پیش برود، جامعۀ بشری با خطرهای جدی مواجه خواهد شد.
کوکلبرگ (1403) در کتابی با عنوان «درآمدی بر فلسفۀ سیاسی هوش مصنوعی» اساساً بر ماهیت سیاسی فناوری تأکید کرده و از ضرورت بازاندیشی تأثیرات اجتماعی هوش مصنوعی سخن میگوید. کتاب با بررسی پیشینه فلسفه سیاسی هوش مصنوعی آغاز میشود و سپس برخی از مهمترین مسائل سیاسی مرتبط با هوش مصنوعی را بررسی میکند؛ از جمله: عدالت و برابری، آزادی، حقوق بشر، استقلال انسان و بردگی رباتی، هویت انسانی و فرا انسان، دموکراسی و نظارت. کوکلبرگ همچنین نشان میدهد که چگونه میتوان از فلسفه سیاسی برای هدایت توسعه و استفاده از هوش مصنوعی استفاده کرد.
یونگر6 (2023) در مقالهای با عنوان «هوش مصنوعی و دموکراسی: یک چارچوب مفهومی» ضمن اشاره به ظرفیتهای هوش مصنوعی، به بررسی پیامدهای آن برای دموکراسی پرداخته است. چارچوب مفهومی ابتکاری او برای مطالعۀ این موضوع در برگیرندۀ مطالعه در سطوح فردی، گروهی، نهادی و سیستمی است که به ترتیب در هر کدام از این سطوح، پیامدهای استقرار هوش مصنوعی بر حاکمیت مردم، برابری، انتخابات و رقابت بین نظامهای سیاسی را به اختصار بررسی کرده است.
رایس7 (2021) در مقالهای با عنوان «هوش مصنوعی و گذشته، حال و آیندۀ دموکراسی» با یک نگاه تاریخی، جایگاه فناوری در دموکراسیهای اولیه و دموکراسیهای مدرن را برررسی و استدلال کرده است که فناوری به عنوان یک بازیگر در مناسبات مردم و نظام سیاسی همواره حضور داشته است. بنابراین همانگونه که فناوریهای پیشین، دموکراسی را تحت تأثیر قرار داده، فناوری جدید هوش مصنوعی هم میتواند دموکراسی را دستخوش تغییر کند. او پیشنهاد میکند که برای مراقبت از دموکراسی باید قواعد تنظیمگری یا مقرراتگذاری هوش مصنوعی را جدی بگیریم.
مولر8 (2020) در مقالهای با عنوان «تأثیر هوش مصنوعی بر حقوق بشر، دموکراسی و حاکمیت قانون» با اتخاذ رویکرد حقوقی بهویژه بر اساس مصوبات حقوق بشری اتحادیۀ اروپا، بر چگونگی تنظیمگری و مقرراتگذاری توسعه و استقرار هوش مصنوعی به منظور تضمین حقوق و آزادیهای سیاسی تأکید دارد.
دهقانی فیروزآبادی و چهرآزاد (1402) در کتاب «هوش مصنوعی و روابط بینالملل»، نظریههای روابط بینالملل را در پرتو پیشرفتهای هوش مصنوعی مورد بازاندیشی قرار دادهاند. یافتههای آنها نشان میدهد که با ظهور هوش مصنوعی، موضوعات جدید و بازیگران جدیدی در عرصۀ روابط بینالملل پدیدار شدهاند و بر این اساس، نظریههای روابط بینالملل عمدتاً بر اساس منطق واقعگرایی در حال تطور و تحول هستند.
جعفری هزارانی (1403) در مقالهای با عنوان «تکنولوژی و توتالیتاریسم: هوش مصنوعی ابزاری برای دیکتاتور؟!» به این موضوع میپردازد که چگونه میتوان از تبدیل شدن این فناوری به ابزاری برای سرکوب جلوگیری کرد. او استدلال میکند که هوش مصنوعی، کاربردهای مثبت و منفی دارد. با شناسایی هر کدام و تنظیمگری منطقی
میتوان از سوءاستفاده دیکتاتورها از این فناوری جلوگیری کرد.
آثار یادشده در برگیرندۀ تعدادی مطالعه اولیه هستند که هر یک به سهم خود کوشیدهاند تا پیامدهای کاربرد هوش مصنوعی در ابعاد مختلف زندگی سیاسی را تبیین نمایند. هرچند این آثار حاوی مطالب ارزشمند و بینشهای نظری مهمی هستند، در ارتباط با چالشهای رویاروی دموکراسی در عصر دیجیتال، خلأ پژوهشی چشمگیری وجود دارد و لازم است برای غنابخشی به ادبیات مربوطه، بهویژه در زبان فارسی، کارهای پژوهشی مستقلی صورت پذیرد تا از این رهگذر ضمن پرداختن به ابعاد مختلف این موضوع که از پویایی کمسابقهای برخوردار است، محتوای علمی اقناعبخشی برای خوانندگان فارسی زبان فراهم گردد. مقاله حاضر در راستای کمک به تکمیل این خلأ پژوهشی نوشته شده و انتظار میرود گامی مفید برای پرداختن به حکمرانی هوش مصنوعی و تضمین مردمسالاری در این چارچوب باشد.
چارچوب نظری پژوهش: اندیشههای انتقادی و سلطۀ فناوری
همزمان با توسعۀ روزافزون فناوری و حضور همهزمانی و همهمکانی آن در زندگی اجتماعی و سیاسی معاصر، بسیاری از اندیشمندان و فلاسفه نیز از زوایای گوناگون به نقد آثار و پیامدهای آن بر جوامع بشری پرداختند که از میان برجستهترین آنها میتوان به نامهای لویس مامفورد، مارتین هایدگر، ژاک الول، متفکران مکتب فرانکفورت در نیمه دوم قرن بیستم و اخیراً یوال نوح هراری اشاره کرد.
مامفورد در سال 1934 در اثری با عنوان «تکنیک و تمدن»، عملکرد واقعی ماشین در طول تاریخ غرب را ویرانگر خلاقیت و استقلال ذهن انسان معرفی کرد. به نظر او، «انسانها پیش از اینکه ساخت ماشینهای پیچیده را کامل کنند، به لحاظ تمایلات و علایق درونی خود مکانیکی شده بودند» و با تشکیل ماشینهای اجتماعی به روشی هماهنگ و همراه با فرایند تخصصی شدن و اتوماسیون (عقلانیت ماشینی) زندگی میکردند (Mumford: 2010: 3). این سبک از زندگی، مردم را برای پذیرش ماشینهای فیزیکی آماده کرد. چند دهه بعد، مامفورد در اثر دو جلدی خود با عنوان «اسطوره ماشین»، روایتی فراگیرتر ارائه داد و پیشرفتهای ماشینی را ابزاری برای حفظ و تحکیم قدرت قدرتمندان معرفی کرد. به نظر او، اجزای اَبَرماشین معاصر را طبقات جدیدی از تصمیمگیران که بر «سرزمین بایر ابرتکنیکی» حاکماند، کنترل میکنند. مامفورد بهروشنی بر این باور بود که هر نوع سازمان اجتماعی قوامیافته با هوش مصنوعی در بردارندۀ خطرهای جدی برای فعال کردن ظرفیتهای انسانی و حکمرانی بر اساس رضایت عمومی است (Risse, 2022: 92).
به همین صورت ژاک ایلول نیز از جبر فناورانه صحبت میکند. به نظر او فناوری، خودمختار است و سیستمی بسته؛ «واقعیتی در خود و قوانین و الزامات خاص خود را دارد؛ تکنیک تغییرات سیاسی، اجتماعی و اقتصادی را تحریک و چارچوببندی میکند و بدینترتیب عاملیت انسان را محدود میسازد». ایلول در دلهرهآورترین توصیف استعاری خود عنوان میدارد که جهان تکنیک، ساخته «اردوگاه کار اجباری جهانی» است (Ellul, 1964: 133, 397).
نگاه هایدگر به فناوری نیز بیشباهت به دیدگاه مامفورد و ایلول نیست. مهمترین اثر هایدگر در این زمینه، «مسئلة فناوری» (1953) است. به نظر او، فناوری، روزنهای است که ما به واسطۀ آن، جهان را درک میکنیم و آن همهچیز را به یک صورت به ما نشان میدهد؛ حالتی از آشکارگی که شامل کل دنیای طبیعی، حتی شامل انسانها میشود. در سال 1966 هایدگر حتی روزی را پیشبینی کرد که «کارخانههایی برای پرورش مصنوعی جوهر انسانی ساخته میشوند». او برای تبیین نقش فناوری در زندگی انسانها از اصطلاح گشتل9 استفاده کرد که میتوان آن را به چارچوببندی ترجمه کرد. به نظر او، گشتل، گشودگی افقی است که هرگونه توانایی برای مراقبت روابط با اشیا را از ما سلب میکند. فناوری، ما را وامیدارد تا فقط از سر ناتوانی با جهان ارتباط برقرار کنیم و از اینرو ما را از توسعه مهارتها باز میدارد و همزمان ملزم به رضایت داشتن از این وضعیت میکند. به نظر هایدگر، دموکراسی مدرن فقط میتواند در خدمت گشتل باشد و به این ترتیب بخشی از زندگی غیر اصیل را بر ما تحمیل میکند (Risse: 2022: 93).
هوبرت دریفوس، مفسر اندیشههای هایدگر نشان داده است که چگونه اینترنت به
عنوان شکل خاصی از فناوری میتواند بیانگر نگرانی هایدگر درباره فناوری به عنوان گشتل باشد (ر.ک: Dreyfus, 2008). همانطور که هوش مصنوعی پیشرفت میکند، نگرانی هایدگریها نیز درباره چگونگی تباهی ظرفیتهای انسانی در اثر فناوری بیشتر میشود. بنابراین دموکراسیهایی که هوش مصنوعی را به خدمت میگیرند، باید مراقب چنین خطرهایی باشند.
این رویکرد هایدگر به فناوری در صورتبندی اندیشههای متفکران اصلی مکتب فرانکفورت، بهویژه شاگردش هربرت مارکوزه، مؤثر بود. آنها که به مارکسیستهای هگلگرا معروف هستند، بررسی چرایی عدم تحقق وعدههای رهاییبخش مارکس درباره فروپاشی جامعۀ سرمایهداری و پایان استثمار و سلطۀ طبقاتی را نقطۀ تمرکز کارهای فلسفی خود قرار دادند. پاسخ کلی آنها به این مسئله این بود که در سرمایهداری جدید، سلطۀ طبقاتی در شکل سلطۀ فرهنگی ظاهر شده و بنابراین برای تحقق وعدههای رهاییبخش مارکس باید ابتدا به ساختارشکنی سلطۀ فرهنگی پرداخت.
به نظر متفکران مکتب فرانکفورت، فناوری، ابزار سلطۀ فرهنگی طبقۀ مسلط است و بر همین پایه باید به نقد فناوریهای مدرن بهمثابه «صنعت فرهنگی» پرداخت؛ صنعتی که به باور آنها، دموکراسی و حاکمیت انسان بر خویشتن را به مسلخ کشانده است. تأکید بر نقد تکنولوژی در مکتب فرانکفورت به اندازهای برجسته است که برخی محققان آن را ویژگی منحصربهفرد این مکتب میدانند. در میان متفکران این مکتب، آدرنو و هورکهایمر (1972) در کتاب «دیالکتیک روشنگری» استدلال کردند که فناوری فینفسه مولد سلطه است و به همین دلیل هیچگاه نمیتواند خنثی یا بیطرف باشد. در تفسیر این سخن، با رجوع به اندیشۀ کارل اشمیت میتوان گفت که آدرنو و هورکهایمر، تکنولوژی را امر سیاسی میدانستند.
در میان اعضای مکتب فرانکفورت، نام مارکوزه بیشتر از بقیه با نقد فناوری گره خورده است. او دربارۀ ماهیت سلطهآفرین فناوری بر این باور بود که فناوری، فرایندهای فرهنگ، سیاست و اقتصاد را درهم میآمیزد و با دخالت در تمام شئون زندگی، آزادی انسانها را میبلعد و هر جهشی را واپس میزند. او چنین جامعهای را جامعۀ فناورانه نامید (باقری دهآبادی، 1393: 7). به موازات وجود چنین جامعهای، مارکوزه از انسان تکساحتی سخن میگوید که تحت نفوذ عقلانیت ابزاری فناوری از تشخیص نیازهای راستین خود عاجز است و از اینرو سرگرم نیازهای کاذبی است که از طریق صنعت فرهنگ ارضا میشود. به نظر او، انسان در جامعۀ فناوری در خواستههای کاذب و گذرای جامعۀ سرمایهداری از خود بیگانه شده و هویت خود را در کالاهای تولیدی خودش میجوید. به سخن دیگر، انسانها به چشم کالا نگریسته میشوند که باید مصرف شوند. در چنین جامعهای، فناوری رسانههای گروهی از جمله ابزار اصلی تحمیل خواستههای کاذب و سلطهاند که در آن، عقاید مخالف، اجازۀ بروز نمییابند (بشیریه، 1378: 210-211).
از نظر مارکوزه، انسان تکساحتی دارای یک بعد ماشینی شده است و ابعاد دیگر شخصیت او مخدوش است. اخلاق، زبان، فرهنگ، هنر و عواطف، همه از حاکمیت فناوری متأثر شدهاند و در نتیجه تفکر تکساحتی همراه با جامعه تکساحتی ایجاد شده است. به طور کلی فناوری به نهادهای اقتصادی و سیاسی کمک میکند که انسان را مورد بهرهبرداری قرار دهند. برای برونرفت از این وضعیت، مارکوزه راهحل عملی مناسبی ارائه نداد و یا راهکارهای پیشنهادیاش در لابهلای مباحث پیچیدۀ فلسفی پوشیده ماند.
در جستوجوی راه برونرفت از سلطه و بازگرداندن حاکمیت به مردم، یورگن هابرماس به عنوان نمایندۀ آخرین حلقه متفکران مکتب فرانکفورت، تقویت کنش ارتباطی در حوزۀ عمومی را پیشنهاد کرد. او که مدرنیته را پروژهای ناتمام تلقی میکند، مدعی است از طریق عقلانیت تفهمی و گفتوگوی انتقادی مستمر در جامعه مدنی میتوان به اجماعهای موقت بیناذهنی دست یافت و از این رهگذر ابعاد گوناگون سلطه را به عقبنشینی وادار کرد. به نظر هابرماس، این فرایند میتواند مدرنیته را تکمیل کرده، در مسیر دموکراسی قرار دهد (بشیریه، 1378: 222-211؛ معینی علمداری، 1392: 92).
اما چنانکه در ادامه خواهیم دید، توسعۀ فناوریهای ارتباطی جدید مبتنی بر هوش مصنوعی، گفتوگوی عمومی را از دنیای واقعی به دنیای مجازی منتقل کرده است. با توجه به وجود امکان دستکاری و سوگیری در دادههای هوش مصنوعی و سایر مشکلات مربوط به تنظیمگری آنها، به نظر میرسد که امروزه کنش ارتباطی موردنظر هابرماس در حوزۀ عمومی کنشی راستین و عاری از هرگونه سلطه نیست و میتواند مخدوش باشد. شاید مباحث متفکر فرامدرن ژان بودریار که از شیوههای جدید سلطه فناوری سخن میگوید، بتواند در پشتیبانی از این استدلال کمککننده باشد. بودریار با خلق تعابير ناب و نوين میکوشد تا عمـق تحولات جامعة جديد را كه در اثر پديدههاي نوظهور فناورانه در حـال شـكلگيـري است، درك و منعكس كند. مفهوم «فراواقعيت» در آثار بودريار كه با علم معنا و نشانهشناسي درآميخته، بیانگر آن است كه رايانهاي شدن، فناوری ارتباطـات و رسانهها با هم از طريق توليد تصاوير و مدلهايي از واقعيت كه به طور روزافزوني جـاي خودِ واقعيت را ميگيرند، به تجربة بشري شكل ميدهند (گيبينز و ريمـر، 1381 :74).
بـه عبارت ديگر فراواقعيت، نوعي توهم گسترده است كه بـه يـاري مكانيسـمهـاي پيشـرفتة جهان مدرن يعني رسانههاي الكترونيك و همچنـين تمـامي امكانـات فناورانه تغييـرِ واقعيت نظير صحنهپردازيها و... ساخته ميشـود (فكوهي، 1386: 321). در اين رابطه، يكي از نظريههایی كه وي مطرح كرده، «نظريـة انفجـار درونريز» است. طبق اين نظريه، مرز ميان واقعيت و وانمـوده يـا امور شبيهسازي شده از ميان رفته، معناها و پيامها آنچنان درهم ميآميزند که درست را از نادرست نمیتوان تشخیص داد (باقری دهآبادی، 1393: 6).
یووال نوح هراری اخیراً دیدگاه متفاوتی مطرح کرده است که به طور خاص معطوف به رابطه دموکراسی و هوش مصنوعی است. به استدلال او، به لحاظ تاریخی و بهویژه در قرن بیستم، توسعۀ فناوری بیشتر به توسعۀ سیستمهای دموکراتیک در برابر نظامهای خودکامه کمک کرده است. هراری با رجوع به کتاب «راه بردهداری» هایک، استدلال میکند که فناوریهای قرن بیستم، مانع از تمرکز اطلاعات و قدرت میشدند و همین عدم تمرکز، موازنه را به نفع دموکراسی حفظ کرده است (Risse, 2022: 91). اما هوش مصنوعی میتواند این معادله را تغییر دهد و پایداری، پویایی و کارآمدی نسبی دموکراسی را از بین ببرد.
به نوشته هراری، «زمانی که ظرفیتهای هوش مصنوعی به طور کامل آشکار شود، احتمالاً دموکراسی همانند نوار کاست و کمونیسم منسوخ خواهد شد» (هراری، 1397: 342). به باور او، هوش مصنوعی دستکم از سه منظر با فناوریهای پیشین متفاوت است:
1. هوش مصنوعی، اولین فناوری در طول تاریخ بشر است که میتواند بهتنهایی تصمیم بگیرد. مثلاً بمبهای اتمی نمیتوانستند تصمیم بگیرند که چه کسی را بمباران کنند؛ اما هوش مصنوعی میتواند بهتنهایی در این مورد تصمیم بگیرد.
2. هوش مصنوعی، اولین فناوریای است که میتواند بهتنهایی ایدههای کاملاً جدیدی بسازد. در حالی که فناوریهای پیشین نظیر ماشین چاپ یا رادیو، نمیتوانند ایده بسازند و فقط میتوانند ایدههای ما را منتشر کنند.
3. هوش مصنوعی در مواقع اشتباه ما در استفاده از ابزار مربوطه، برخلاف فناوریهای پیشین، حاشیه امن کمتری برای اصلاح خطا دارد و از اینرو اگر مرتکب خطا شویم، قابل جبران نیست و حتی میتواند به پایان نوع بشر منتهی شود (ر.ک: هراری، 1403).
از اینرو هراری پیشنهاد میکند که فعلاً استقرار هوش مصنوعی را متوقف کنیم و روی قواعد تنظیمگری و مقرراتگذاری تمرکز نماییم. در غیر این صورت هوش مصنوعی با روند جاری توسعۀ خود، دموکراسی را بسیار بیشتر از هر مستبد ظالم نابود خواهد کرد (هراری، 1397: 65).
ارائۀ نظریههای یادشده بدان معنی نیست که دموکراسیهای فعلی در آستانه فروپاشی هستند؛ بلکه بدان معناست که بدانیم فرایندهای سیاسی دموکراسیها بهشدت به فناوریهای مدرن گره خورده و در این فرایند، امروزه هوش مصنوعی، نقش بسیار مهمی دارد. هرچند فناوری، جزء جداییناپذیر کارکرد دموکراسی مدرن است، آنها متحدان طبیعی نیستند. با توجه به هشدارهایی که متفکران یادشده درباره نقش فناوری در تقویت خودکامگی به ما میدهند، هواداران دموکراسی باید بدانند که چگونه از این میراث گرانبها و سبک موفق زندگی سیاسی مراقبت کنند تا از گزند آفات دهر مصون بماند.
هوش مصنوعی و دموکراسی: فرصتها و چالشها
الف) فرصتهای هوش مصنوعی برای پیشبرد دموکراسی
با توسعۀ فناوری هوش مصنوعی، برخی از متفکران خوشبین، این باور را مطرح کردند که دنیای امروز بیش از هر زمانی به تحقق آرمان دموکراسی مستقیم نزدیک است. به استدلال آنها، زیرساختهای دیجیتال مبتنی بر هوش مصنوعی میتواند نویدبخش احیای آگورای آتنی یا دموکراسی مستقیم باشد و بدین ترتیب شکاف دولت و جامعه را که به دلیل گسترش جمعیت و پیچیدگی زندگی اجتماعی ایجادشده، ترمیم نماید؛ فرایندی که طی آن، دولت متورم و دورافتاده از جامعه به دولتی چابک و همپیوند با جامعه تبدیل میشود.
از نظر فنی، این امکان وجود دارد که با طراحی بهینۀ هوش مصنوعی، بتوان دموکراسی را به میزان قابل توجهی تقویت کرد: تجزیه و تحلیل پایگاههای داده به وسیلۀ هوش مصنوعی، اطلاعات دقیقتری درباره نیازهای شهروندان در اختیار سیاستمداران قرار میدهد؛ پهنای باند ارتباطی بین رأیدهندگان و سیاستمداران از طریق پلتفرمهای هوش مصنوعی میتواند به طور چشمگیری توسعه یابد؛ زیرساختهای دیجیتال در حوزه عمومی به گونهای قابل طراحی است که از هوش مصنوعی برای توسعۀ خدمات عمومی استفاده کند؛ هوش مصنوعی میتواند از طریق شناسایی ترجیحات و دیدگاههای تکتک شهروندان، اطلاعات مناسب برای مشارکت مردم در حکمرانی در اختیار دولتمردان قرار دهد؛ هوش مصنوعی میتواند زیرساختهای مناسبی برای بحث و تبادلنظر در اختیار شهروندان قرار دهد؛ هوش مصنوعی میتواند به جمعآوری آرا کمک کند و از این رهگذر، چالشهای حضور مردم در پای صندوقهای رأی، شمارش آرا و غیره را مرتفع سازد؛ هوش مصنوعی میتواند سازوکارهایی را فراهم کند که مردم پیوسته درباره موضوعات مختلف، طرف مشورت کارگزاران حکومتی قرار گیرند و بدین ترتیب با توسعۀ گسترۀ مشارکت عمومی، پایگاه مشروعیت سیاسی دولت را بهبود بخشد؛ هوش مصنوعی کمک میکند روشهای بسیار پیچیده به جای روش اکثریتی ساده در رأیگیری به کار رود؛ هوش مصنوعی، مشورت گروههای نمایندگان را به گونهای تسهیل میکند که همهچیز در کمترین زمان ممکن انجام شود؛ در صورت کاهش اعتماد به نمایندگان به زیر آستانه نمایندگی، هوش مصنوعی میتواند هشدار لازم را برای برگزاری انتخابات بدهد؛ فناوریهای هوش مصنوعی نظیر تشخیص چهره، تشخیص صدا و اثر انگشت میتوانند امنیت سیستمهای رأیگیری را افزایش دهند و تقلبهای احتمالی را کاهش دهند؛ الگوریتمهای هوش مصنوعی میتوانند الگوهای غیر عادی در دادههای رأیگیری را شناسایی و هشدارهای لازم را برای مقابله با تقلب به مسئولان برگزاری انتخابات بدهند (ر.ک: کورتیس، 1402)؛ ارائۀ خدمات عمومی از طریق هوش مصنوعی و گذر از شهرهای هوشمند به کشورداری هوشمند، موجب کوچک شدن دیوانسالاری میشود؛ هوش مصنوعی اگر به طور مسئولانه مقرراتگذاری و تنظیم شود، الگوریتمهای پیچیده میتوانند جایگزین قضات شوند و به نهادهای آمبودزمانی ناظر بر سلامت اداری در شناسایی موارد فساد کمک کنند (Muller, 2020: 15)؛ هوش مصنوعی با نظارت دقیق میتواند گزارشهای جانبدارانه یا استدلالهای گمراهکننده را پرچمگذاری یا حذف کند. به طور کلی هوش مصنوعی میتواند چالشهای مربوط به فراگیری عمومی حکومت را مرتفع سازد و نویدبخش ایجاد دموکراسی اولیه (دموکراسی مستقیم) در قرن بیستویکم باشد.
نمیتوان انکار کرد که فناوری دیجیتال بر پایۀ هوش مصنوعی میتواند به تقویت دموکراسی کمک کند. نمونههایی از تجربۀ موفق کشورهای مختلف وجود دارد که با کمک زیرساختهای فراهمشده از طریق این فناوری، سازوکارهای دموکراتیک را به اجرا درآوردهاند. از جمله ایسلند در سال 2011، اولین «جمعسپاری» یا تجمیع اینترنتی نظرهای مردم درباره پیشنهاد قانون اساسی را در جهان به اجرا درآورد. در تایوان، مذاکرات میان مقامات رسمی، شهروندان و تعدادی از شرکتهای خدماتی به وسیلۀ یک سامانۀ دیجیتال ابتکاری برای حکمرانی مشورتی انجام شد که به «وی تایوان» موسوم است. فرانسه برای مناظرۀ بزرگ ملی در اوایل سال 2019 و سپس پیشبرد مذاکرات کنوانسیون بینالمللی تغییرات آب و هوایی در سطح گستردهای به فناوریهای دیجیتال متکی بود. بارسلون در حکمرانی شهری به طور گستردهای از فناوری دیجیتال بهره میبرد و پیشتاز جنبش جهانی شهر هوشمند به شمار میرود. البته سنگاپور، هلسینکی و زوریخ نیز بر اساس شاخص شهر هوشمند10، پیشتاز هستند و نوآوریهای قابل ملاحظهای را در این راستا به ثبت رساندهاند. کشورهای حاشیه جنوبی خلیج فارس از جمله عربستان و امارات و قطر نیز اقدامات چشمگیری برای ایجاد شهر هوشمند انجام دادهاند. در استرالیا، یک پروژۀ غیر انتفاعی دموکراسی الکترونیکی به آدرس openforum.com.au از سیاستمداران، مدیران ارشد، دانشگاهیان، تجار و سایر ذینفعان دعوت میکند که در بحثهای سیاسی شرکت کنند. در آمریکا، «گزارش کارت کالیفرنیا» در واقع یک برنامه وب پایه برای استفاده در گوشیهای هوشمند است که برای پیشبرد مشارکت عمومی شهروندان در ادارۀ امور این ایالت طراحی شده است (Risee, 2022: 95). با شیوع همهگیری کوید 19، کشورها در سطح وسیعی از فناوریهای دیجیتال برای ارایۀ خدمات استفاده کردند و به مردم اجازه دادند که در خانه بمانند و وظایف خود را انجام دهند. بیتردید تحول در نظام آموزشی و استفاده حداکثری از فناوریهای دیجیتال در این حوزه، فرصتی بود که کوید 19 فراهم کرد.
امکانات مطلوب یادشده ممکن است در بحثهای مربوط به هوش مصنوعی و دموکراسی، اهمیت بسیار بالایی بیابد. اما باید هوشیار باشیم و اجازه ندهیم که تفکرمان به واسطۀ چنین رهیافتی هدایت شود؛ زیرا الگوریتمها میتوانند قضاوتها و تصمیمهای ما را بسازند، یا به سخن دیگر، شستوشوی مغزی کنند و به این ترتیب موجودات باهوش به موجودات صرفاً پاسخدهنده به محرک تبدیل شوند (ر.ک: Gardner, 2011). به علاوه طراحی و اجرای چنین سیستمهایی ناگزیر مستلزم توسعۀ ظرفیتهای دولت است؛ ظرفیتهایی که بهطور روزافزون در معرض سرقت و سایر سوءاستفادهها هستند. از سوی دیگر، حکومتهای خودکامه نیز از پیشرفتهای فناورانه بهره میبرند و سلطۀ بوروکراتیک خود را مستحکم میکنند. از اینرو نباید بهسادگی فریفتۀ روایتهای مبتنی بر اتوپیای دموکراتیک هوش مصنوعی شویم.
بنابراین لازم است به این پرسش پاسخ گوییم که چالشهای هوش مصنوعی برای پیشبرد دموکراسی در عصر دیجیتال چیست؟ خلاصه اینکه اگر مراقب نباشیم و چالشهای هوش مصنوعی برای دموکراسی را شناسایی و چاره نکنیم، در طلوع عصر دیجیتال ممکن است در وضعیت توتالیتاریسمی گرفتار شویم که اورول در کتاب «1984» به توصیف آن پرداخته یا آرنت در کتاب «زمینههای توتالیتاریسم» نسبت به آن هشدار داده است.
ب) چالشهای هوش مصنوعی برای پیشبرد دموکراسی
1) دستکاری افکار عمومی
دستکاری افکار عمومی به سازوکارهای تغییر رفتار مردم از طریق تأثیرگذاری بر
ادراک و نظام شناختی آنها اطلاق میشود که اغلب به صورت غیر مستقیم و نامحسوس صورت میگیرد. دستکاری سیستماتیک افکار عمومی به کمک ابزار مجهز به هوش مصنوعی، که اصطلاحاً «پروپاگاندای رایانشی11» نامیده میشود، از مهمترین چالشهای هوش مصنوعی است که در سالهای اخیر مورد توجه روزافزون قرار گرفته است.
مطالعات انجامشده نشان میدهد که در اغلب کشورها، روندهایی برای سوءاستفاده از سازوکارهای فنی شبکههای اجتماعی و دستکاری واقعیت و جریانسازیهای دروغین وجود دارد. در این روندها، گروههای ذینفوذ، حکومتها یا سایر کنشگران با استفاده از ابزاری نظیر رباتهای شبکههای اجتماعی یا حسابهای کاربری جعلی، پیامهای سیاسی خاص را در حوزۀ عمومی برجسته یا سرکوب میکنند. با این روش عملاً صاحبان قدرت به شکل مصنوعی، جریان افکار عمومی را کنترل میکنند و جریان طبیعی ارتباطات و فرایندهای ارتباطی مخدوش میشود. به عنوان بخشی از این فرایند، نرمافزارهای خودکار برای دستکاری افکار عمومی در انواع پلتفرمها و شبکههای درون اینترنت به کار میرود. این نرمافزارها در حقیقت رفتار کاربران واقعی رسانههای اجتماعی را تقلید میکنند. برای مثال آنها به طور خودکار در گفتوگوهای آنلاین شرکت میکنند و به کاربران واقعی پاسخ میدهند. در رسانههای دیجیتال از این روش برای تقویت یا سرکوب پیامهای سیاسی خاص استفاده میشود.
خودکار بودن اقدامات، مقیاسپذیری و ناشناس بودن از مشخصات بارز پروپاگاندای رایانشی است. قدرت مخرب این روش در امکان توزیع سریع حجم زیادی از محتوا برای انبوه کاربران است. گاهی این محتوا شخصیسازی میشود تا کاربران گمراه شوند و تصور کنند که پیامها از طرف خانواده و دوستانشان است. به این ترتیب پروپاگاندای رایانشی معمولاً در برگیرندۀ یک یا چند مؤلفه زیر است: نرمافزارهای خودکار که محتوای جعلی تولید و ارائه میکنند؛ حسابهای کاربری جعلی که چندان به مدیریت انسانی نیاز ندارند و نیز اخبار فریبندهای که حاوی اطلاعات غلط درباره سیاست و زندگی عمومی است. رباتهای سیاسی در گسترش پروپاگاندای رایانشی، نقش اساسی دارند. این رباتها طوری برنامهنویسی میشوند که بتوانند وظایف ساده، تکراری و عمدتاً مبتنی بر متن را برای مقاصد سیاسی با سرعت و سهولت زیاد انجام دهند. این روش میتواند درباره ایدهها و نگرشهای مورد نظر صاحبان قدرت و ثروت، اجماع ساختگی ایجاد کند و بدین ترتیب ارتباطات دموکراتیک را مخدوش نماید (ر.ک: وولی و هاوارد، 1400).
با توجه به این ظرفیتهای هوش مصنوعی، امکان دستکاری ذهنی یا به تعبیر بهتر، هک کردن ذهن کاربران به عنوان شرکتکنندگان در فرایندهای سیاسی وجود دارد. بنابراین هوش مصنوعی، نقش روزافزونی در مبارزات انتخاباتی ایفا میکند. در بافتار دموکراسی نمایندگی و رویههای رأیگیری در آن، فناوریهای دیجیتال مجهز به هوش مصنوعی میتوانند رأیدهندگان را از طریق تبلیغات شخصیشده به سمت حمایت از یک سیاستمدار یا حزب خاص سوق دهند. یکی از نمونههای شناختهشده که به دستکاری ذهنی افراد مربوط میشود، متعلق به عملکرد شرکت «کمبریج آنالیتیکا»ست که نقض حریم خصوص و جمعآوری دادههای شخصی کاربران فیسبوک را در سابقه دارد. شواهد نشان میدهد که این دادهها برای تأثیرگذاری در فرایندهای سیاسی -برای مثال در کمپین انتخابات ریاستجمهوری ترامپ در سال 2016- به کار رفته است (کوکلبرگ، 1403: 152؛ برکان، 1402: 161).
پیشرفتهای اخیر در مدلهای ترانسفورماتور، راههای جدیدی را برای دستکاری ذهنی از طریق تولید خودکار متن یا تصاویر گشوده است. برای مثال، این مدلها تولید خودکار محتوا بر اساس اطلاعات خام یا دادههای رویداد را تسهیل میکنند. تا زمانی که این مدلهای هوش مصنوعی، اطلاعات را از یک شکل به شکل دیگر ترجمه میکند، -مثل تبدیل دادههای عددی یا رویدادی به مقاله خبری روایی- مشکلی ایجاد نمیشود. حالتهای مشکلدار مربوط به زمانی است که هوش مصنوعی بر اساس الگوی دادههای پیشین، تولید محتوا میکند. در این حالت، هوش مصنوعی هیچ تعهدی نسبت به حقیقت یک استدلال یا مشاهده و بایدها و نبایدها ندارد؛ بلکه فقط شباهتها را آنگونه که در دادههای قبلی مییابد، تقلید میکند (ر.ک: Smith, 2019). بنابراین خروجی هوش مصنوعی در ارزش اسمی ضرورتاً درست نیست و نمیتواند قابل اعتماد باشد.
مسئله بسیار پیچیدهتر این است که هوش مصنوعی، قابلیت تولید اطلاعات جعلی در
مقیاس بزرگ دارد. این امر ممکن است با هدف پر کردن محیطهای اطلاعاتی با انبوهی از محتوای غیر قابل اعتماد یا گمراهکننده انجام شود. رباتها که در رسانههای اجتماعی در قالب حسابهای انسانی پنهان شدهاند، میتوانند برای انتشار اطلاعات نادرست و اخبار جعلی به گروههای اجتماعی خاص به کار روند. این مسئله هم برای دموکراسی و هم برای آزادی، مشکلساز است (کوکلبرگ، 1403: 62؛ برکان، 1402: 158)؛ زیرا در چنین وضعیتی، دسترسی افراد به اطلاعات معتبر و قابل اعتماد مخدوش میشود و آنها نمیتوانند درست را از نادرست تشخیص دهند. هرچند این خطرها هنوز در مرحلۀ عملی شایع نشده است، با در نظر گرفتن پیشرفتهای اخیر فناوری هوش مصنوعی و افق توسعۀ آیندۀ آن، این خطرها بسیار جدی است و از اینرو مستلزم بررسی انتقادی به منظور تضمین موجودیت راستین دموکراسی است.
2) مخدوش شدن محیط اطلاعاتی حوزۀ عمومی
دموکراسیها متکی به وجود حوزۀ عمومی اعتمادآفرین هستند. حوزه عمومی، شبکههای کنشگری برای تبادل اطلاعات یا دیدگاهها درباره مسائل مشترک فراتر از پیوندهای خویشاوندی و دوستی است. قبل از اختراع چاپ، حوزههای عمومی محدود به گفتوگوی زبانی بود. در این شرایط، شکوفایی حوزۀ عمومی بستگی به دسترسی به مکانهایی داشت که مردم در آنجا بدون نگرانی و در امنیت میتوانستند به گفتوگو بپردازند. پیدایش ماشین چاپ بهطور چشمگیری هزینههای انتشار اطلاعات را کاهش داد و بدین ترتیب روزنامهها و دیگر رسانههای چاپی، تلگراف و سپس رادیو، تلویزیون و فیلم در مناسبات ارتباطی حوزۀ عمومی، محوریت یافتند. رشد رسانههای اجتماعی تحت تأثیر گسترش اینترنت، این وضعیت را عمیقاً دگرگون کرد و به نوع جدیدی از حوزه عمومی شکل بخشید که در آن دسترسی به اطلاعات و دیدگاهها دیگر در انحصار رسانههای سنتی نبود؛ زیرا با پیشرفتهای جدید، هر شهروند میتواند صاحب یک رسانه باشد. به این ترتیب شرکتهای رسانهای بزرگ در مسیر ضعیف شدن قرار گرفتند (Risee, 2022: 97).
گوگل، فیسبوک، ایکس (توییتر سابق)، یوتیوب و غیره، پلتفرمهایی را برای تبادل مستقیم اطلاعات بین افراد در مقیاس بزرگ فراهم کردند که قبلاً غیر ممکن بود. اکنون انواع ایدهها و سیاستها از طریق این پلتفرمها گسترش مییابد. نهتنها رسانههای اجتماعی، امکانات جدیدی برای شبکهسازی ایجاد کردند، بلکه دادههای فراوانی را نیز جمعآوری میکنند که برای پیشبینی ترندها و دستکاری افکار عمومی به کار میروند. یکی از نمونههای این دستکاری، قضیۀ شرکت کمبریج آنالیتیکاست که در بالا به آن اشاره شد. این امر بیانگر ظرفیت دادههای هوش مصنوعی برای تأثیرگذاری بر محیط اطلاعاتی بهویژه در موقعیتهایی است که رقابتهای انتخاباتی با یک حاشیه تفاوت اندک به پیروزی میرسد (ر.ک: طهماسبی، 1403).
نسل جدید رسانههای دیجیتال که زیرساختهای لازم را برای ارتباطات آنلاین ایجاد کردهاند، بخش مهمی از حوزۀ عمومی را تشکیل میدهند که اندازه و اهمیت آن پیوسته در حال گسترش است. این زیرساختها شامل وسایل و سیستمهایی است که زندگی ما را دیجیتال میکنند؛ از سختافزار اینترنت گرفته تا مؤسساتی که نام دامنه را کنترل میکنند و نرمافزارهایی که عملکرد اینترنت را حفظ میکنند (مرورگرها، موتورهای جستوجو، فروشگاههای اینترنتی و غیره). امروزه منافع خصوصی بر زیرساختهای دیجیتالی ما مسلط است. به طور معمول مهندسان و کارآفرینان، بیشتر به نیازهای بازار میاندیشند و از این واقعیت سود میبرند که زندگی ما بیش از پیش دیجیتال و به کلیک کردن و وایرال شدن وابسته میشود.
نسل جدید رسانههای دیجیتال، این ظرفیت را دارند که از طریق آنها، اخبار جعلی و دروغهای عمیق برای مخاطبان خاص ارسال شود و بدین ترتیب تغییر جهانبینی آنها را هدف قرار دهند. دانشمندان علوم سیاسی مدتهاست که نسبت به ناآگاهی شهروندان در دموکراسیها و کیفیت پایین تصمیمگیری عمومی هشدار میدهند. اکثر مردم، اخبار را از نزدیک دنبال نمیکنند، نگرشهای سیاسی قوی ندارند و زمانی که دانش سیاسی آنها سنجیده میشود، پاسخهای مناسبی ارائه نمیدهند (Jungherr, 2023: 4). حتی شهروندان آگاه و متعهد نیز گاه بر اساس تعلقات هویت اجتماعی و وفاداریهای تعصبآمیز، ایستار سیاسی خود را به نمایش میگذارند. در این میان، خبر ناخوشایند این است که ترکیب رسانههای اجتماعی و هوش مصنوعی، این گرایشها را تقویت میکند. زیرساختهای اطلاعاتی جدید مانند توییتر، ایکس و یوتیوب از طریق الگوریتمهای جلب توجه و شخصیسازی اطلاعات، فرصتهای دستکاری ذهنی را افزایش میدهند (ر.ک: Jungherr & Schroeder, 2023).
به عبارت دیگر، محیطهای اطلاعاتی یادشده عمدتاً بر اساس ترجیحات استنباطشده و پیشبینی رفتار کاربران شکل میگیرد. بنابراین در یک چنین محیطی، در مقایسه با سایر محیطهای اطلاعاتی، افراد بیشتر با اطلاعات سیاسیای که با آنها موافقند، تغذیه میشوند و در معرض دیدگاههای مخالف نخواهند بود (Jungherr, 2023: 4). بدین ترتیب حبابهای اطلاعات و اتاقهای پژواک شکل میگیرد و افراد درون آنها صرفاً صدای خودشان را میشنوند. گویی «دهکدۀ جهانی، جای خود را به جزایر منزوی دیجیتال میدهد که هر روز از هم دورتر میشوند» (کوکلبرگ، 1403: 146-147). بنابراین با مراجعه به اندیشههای هابرماس میتوان استدلال کرد در یک چنین محیطهای اطلاعاتی، بحث و گفتوگوی سیاسی که لازمۀ رشد و بالندگی حوزۀ عمومی است، شکل نمیگیرد. در نتیجه ممکن است جامعه دستخوش پراکندگی، قطبیسازی، سردرگمی، غفلت، تعصب و هرجومرج شود.
به علاوه به علت رواج پدیدۀ دروغهای عمیق12 نیز محیط ارتباطی حوزه عمومی تاحدود زیادی مخدوش شده است. ابزار جدید هوش مصنوعی، این قابلیت را دارند که عکسها و ویدئوها را دستکاری کنند و افراد آن را با افراد دیگر، جایگزین یا شبیهسازی کنند. اخبار جعلی و دیپفیک، در کنار سایر اخبار کذب وایرالشده در رسانههای مصنوعی، ممکن است چنان دامنۀ بیاعتمادی عمومی را گسترش دهند که مردم دیگر نتوانند حقیقت را از ناحقیقت تشخیص دهند (برکان، 1402: 162). بنابراین میتوان مدعی بود که رسانههای مبتنی بر هوش مصنوعی، مروج بیهوشی مصنوعی در جامعه هستند. در چنین فضایی، اعتبار دموکراسی به عنوان روش موفق کشف خواستههای واقعی مردم نیز مخدوش میشود.
3) تقویت نابرابری و تبعیض
دموکراسی مستلزم وجود حقوق برابر و عدم تبعیض در میان شهروندان است. هرچند این آرمان هرگز به طور کامل محقق نشده، دموکراسیها همواره برای احیای آن کوشیدهاند. بررسیهای انجامیافته نشان میدهد که استفاده از دادههای هوش مصنوعی در ادارۀ امور عمومی میتواند موانع جدی در مسیر تحقق این آرمان ایجاد کند. به باور پیکتی، فنآوری به طور کلی و هوش مصنوعی به طور خاص، بخش جداییناپذیر مکانیزمهای افزایش نابرابری به شمار میروند. از سوی دیگر، ون دایک13 در تبیین نقش فناوری در افزایش نابرابری در عصر دیجیتال از مفهوم «شکاف دیجیتال» استفاده میکند که مبین نابرابری در میزان دسترسی و مهارت استفاده از فناوری دیجیتال در جامعه است (کوکلبرگ، 1403: 79).
اساساً در بیان نقش هوش مصنوعی در تقویت نابرابری و تبعیض روی این مسئله تأکید میشود که دادههای هوش مصنوعی دارای سوگیریهای ساختاری و پنهان هستند (Muller, 2020: 10). این سوگیریها ممکن است در دادههای آموزشی، در الگوریتم، در دادههایی که الگوریتم روی آنها اعمال میشود و در گروههایی که فناوری را برنامهریزی میکنند، وجود داشته باشد (کوکلبرگ: 1403: 80). سوگیری ناشی از هر کدام از عوامل یادشده که باشد، به هر حال تابعی از ساختارهای تبعیضآمیز اجتماعی است که از گذشتههای دور پابرجا مانده است.
به نمایش درآمدن افراد در دادههای هوش مصنوعی، بستگی به میزان حضور آنها در مناسبات اجتماعی و سیاسی دارد که تحت نظارت بینایی هوش مصنوعی است. درجات مختلف به نمایش درآمدن در هوش مصنوعی میتواند نفوذ برخی گروهها را افزایش و برخی دیگر را کاهش دهد. برای مثال، هوش مصنوعی ممکن است به افزایش منابع افراد و گروههایی که از گذشته امتیازهای قابل توجهی داشتهاند، کمک کند؛ زیرا صداها، علایق، نگرشها، نگرانیها و نارضایتیهای آنها برای تصمیمگیران، بیشتر قابل مشاهده و قابل دسترس است. هوش مصنوعی از ترجیحات گروههای قابل مشاهده در دادههای موجود در پیشبینی روندها و پیامدهای سیاسی استفاده میکند و بدین ترتیب نسبت به گروههایی که در این دادهها، کمتر به نمایش درآمدهاند، غفلت و بیتوجهی میکند. نادیدهانگاری سیستماتیک گروههای خاص بدان معناست که آنها در هرگونه رسیدگی مبتنی بر هوش مصنوعی از جامعه سیاسی کنار گذاشته میشوند و بررسی رفتار، علایق، نگرشها و نارضایتیهای آنها بهسادگی نادیده گرفته میشود. بر این اساس افرادی که قبلاً از حقوق خود محروم شدهاند، ممکن است بیشتر در معرض خطر محرومیت، تبعیض و حتی اتهام قرار گیرند. این الگوی کلی بهشدت دموکراسی را تحت تأثیر قرار میدهد (Jungherr, 2023: 7).
به طور کلی تصمیمگیریهای مبتنی بر دادههای هوش مصنوعی در رسیدگیهای پلیسی و قضایی، وام مسکن یا درخواستهای شغلی، اغلب دارای سوگیری هستند. چنین رویههایی بهآسانی بیعدالتیها و تعصبات گذشته شامل تعصبات نژادی و جنسیتی را تداوم میبخشد. در بررسیهای پلیسی و قضایی مبتنی بر هوش مصنوعی، اعضای گروههایی که به لحاظ تاریخی به حاشیه رانده شدهاند، ممکن است بهسادگی در معرض اتهام واهی قرار گیرند. برای مثال در ژانویۀ 2020، یک مرد سیاهپوست آمریکایی طی یک تماس تلفنی در دفتر کار خود به ایستگاه پلیس احضار شد. از آنجا که مطمئن بود جرمی مرتکب نشده، به آنجا نرفت. یک ساعت بعد، پلیس او را در جلوی چشم اعضای خانوادهاش در مقابل منزل دستگیر و بازداشت کرد. در اتاق بازجویی، تصویری از یک فیلم نظارتی مربوط به دزدی از سوی یک مرد سیاهپوست را به او نشان دادند که مدعی بودند اوست. اما او نبود و اشتباه دستگیر شده بود (کوکلبرگ، 1403: 11).
مثال دیگر مربوط به عملکرد یک الگوریتم ارزیابی ریسک تکرار جرم به نام «COMPAS» است که در ایالت ویسکانسین آمریکا برای آزادی مشروط زندانیان به کار رفت. از آنجا که این الگوریتم بر اساس دادههای تصمیمهای گذشته آموزش دیده بود، عملکردش به گونهای بود که ریسک تکرار جرم سیاهپوستان را بیشتر از آنچه واقعیت داشت، نشان میداد (کوکلبرگ: 1403: 81). در کشورهایی که حقوق اجتماعی به درجات مختلف از مجرمان سلب میشود، سوگیریهای سیستماتیک هوش مصنوعی در رسیدگیهای پلیسی و قضایی ممکن است برای سالیان متمادی علیه این گروههای محرومشده تداوم یابد (ر.ک: Aviram et al, 2017).
مشکلات مربوط به نابرابری و تبعیض در رابطه با هوش مصنوعی و علم داده، در خارج از نهادهای دولتی نیز رخ میدهد. برای مثال بانکی را در نظر بگیرید که باید درباره اعطای وام تصمیمگیری کند. ممکن است این تصمیم را به یک الگوریتم خودکار واگذار کند که ریسک بازپرداخت وام را بر اساس سوابق مالی و شغلی متقاضی و همچنین اطلاعات کد پستی برآورد کند. اگر ارتباط آماری بین داشتن یک کد پستی در منطقۀ خاص و عدم بازپرداخت وام وجود داشته باشد، ممکن است فردی که در آن منطقه زندگی میکند، نه بر اساس ارزیابی ریسک فردی خود او، بلکه بر اساس الگوهایی که این الگوریتم یافته، از دریافت وام محروم شود. اگر ریسک شخصی او کم باشد، بیتردید این تصمیم ناعادلانه است. علاوه بر این الگوریتم مورد نظر ممکن است اقدام به بازتولید سوگیری ناخودآگاه مدیران بانک کند که تصمیمهای قبلی را علیه افراد رنگینپوست گرفتهاند (کوکلبرگ، 1403: 82-83). چنین سوگیریها را میتوان در ارتباط با فرایند استخدام و بهکارگیری نیروی انسانی نیز مشاهده کرد. برای مثال آمازون، بررسی پروندۀ متقاضیان استخدام در این شرکت را به الگوریتم هوش مصنوعی واگذار کرد. این سیستم به طور شگفتانگیزی مردان را به زنان ترجیح داد؛ زیرا یاد گرفته بود که پروفایل کاری کارمندان موفق، پروفایل مردانه است. از اینرو بهسادگی زنان را فیلتر کرد و سوابق کاری آنها را نادیده گرفت (Muller, 2020: 10).
عملکرد امروزین سیستمهای مبتنی بر هوش مصنوعی به گونهای است که صرفاً به دنبال یافتن رابطۀ همبستگی یا ویژگیهای مشترک بین متغیرهاست و به همین دلیل از درک معنا و دلایل آن عاجز است. در چنین رویکردی، انواع سوگیریها بهراحتی میتوانند منشأ عمل قرار گیرند؛ چیزی که نوبل آن را «سرکوب الگوریتمی» نامیده است. به استدلال او، حتی موتورهای جستوجو مانند گوگل، نژادپرستی و تبعیض جنسیتی را تقویت میکنند. او ادعا میکند که الگوریتمها و سیستمهای طبقهبندی، «درونیسازی» شدهاند و بر روابط اجتماعی از جمله روابط قدرت نژادی، تأثیر میگذارند. او توجه را به این موضوع جلب میکند که چگونه سیاهپوستان آمریکا برحسب هویت، مورد ظلم و بیعدالتی الگوریتمی قرار میگیرند. نمونهای از این ظلم الگوریتمی، برنامۀ گوگل فوتوز بود که به طور خودکار سیاهپوستان را با عنوان میمون برچسبگذاری میکرد؛ تاحدی که میشل اوباما، همسر رییسجمهور پیشین آمریکا را نیز تحت همین عنوان طبقهبندی کرد و گوگل نتوانست به طور واقعی این مشکل را برطرف کند. بر این اساس است که نوبل ادعا میکند که «نژادپرستی و تبعیض جنسیتی، بخشی از معماری و زبان فناوری به شمار میرود» (Nobel, 2018: 9). بر همین مبنا، دههها پیش، دونا هاراوی در کتاب «مانیفست سایبورگ» هشدار داد که عصر دیجیتال ممکن است حاکمیت پدرسالارانۀ سرمایهداری سفید را تداوم بخشد (Haraway, 2015: 149-182).
همچنین هوش مصنوعی میتواند اثرات نامطلوبی بر بازار کار داشته باشد. روند تحولات اقتصادی نشان میدهد که بهزودی بسیاری از مشاغل تحت تأثیر هوش مصنوعی عمیقاً متحول خواهند شد. جنبه خوشبینانه روند یادشده این است که ما شاهد شکلگیری جامعهای خواهیم بود که در آن مشاغل سنتی بهتدریج متحول شده و برخی مشاغل با مشاغل جدید جایگزین شدهاند؛ به گونهای که سطح بهرهوری اقتصادی و ثروت اجتماعی افزایش یافته، اوقات فراغت بیشتری برای افراد طبقۀ متوسط فراهم میشود. در سمت بدبینانه قضیه انتظار میرود که بسیاری از کسانی که شرایط لازم را برای داشتن نقش معنادار در اقتصاد فناوری ندارند، ناگزیر به نیروی کار عادی تبدیل شوند یا شغل خود را از دست بدهند و نابرابری افزایش یابد (Risse, 2022: 101-102).
در این میان ممکن است تأثیر موج متأخر نوآوریهای هوش مصنوعی بر جایگزینی نیروی کار، عمیقتر باشد. این نوآوریها حتی تعدادی از کارهای مخصوص انسانها، نظیر مشاغل دانشگاهی و علمی را نیز تحت تأثیر قرار میدهد که تصور نمیرفت روزی ماشینی شوند. بنابراین در مقایسه با پیامدهای اشکال سنتی اتوماسیون، ممکن است پیامدهای هوش مصنوعی در تغییر فرصتها و منزلت سیاسی نیروی کار، مایۀ نگرانی گروهای گستردهتری در اقتصاد باشد. این واقعیت را میتوان درباره تأثیر مدلهای زبانی بزرگ و هوش مصنوعی مولد بر صنعت نرمافزار بهروشنی مشاهده کرد؛ جایی که تاکنون به نظر میرسید از خطرهای جایگزینی شغل در اثر اتوماسیون مصون بوده است. نشانههای ظهور این خطوط شکاف را میتوان در اعتصاب نویسندگان هالیوود در سال 2023 مشاهده کرد که طی آن، فیلمنامهنویسان خواستار حمایت قراردادی در برابر استفاده از هوش مصنوعی برای نوشتن نقشها شدند (Jungherr, 2023: 7). از رهگذر جایگزینی نیروی کار با ابزار هوش مصنوعی، تعدادی زیادی از آنها بیکار میشوند و دستمزد شاغلان و قدرت چانهزنی جمعی آنها کاهش مییابد و در نتیجه میزان نفوذ و قدرت سیاسی آنها نیز کاهش مییابد (ر.ک: Acemoglu, 2021).
هوش مصنوعی، مکانیسمی دارد که در ارتباط با توانایی تولید یا استفاده از این فناوری، نابرابری ایجاد میکند؛ نوعی از نابرابری که میتوان آن را تابعی از «شکاف دیجیتال» در جامعه ارزیابی کرد. در این چارچوب، کسانی که توانمندی و مهارتهای لازم را برای بهرهبرداری از هوش مصنوعی دارند، نهتنها ثروتمندتر میشوند، بلکه به گونهای آن را تصاحب میکنند که ممکن است مالکیت آنها برای نسلهای متوالی تداوم یابد. در اقتصادهای نوظهور که بسیاری از کارها به وسیلۀ هوش مصنوعی انجام میشود، مالکیت و قدرت داده، جایگزین مالکیت زمین یا کارخانه میشود. اهمیت جمعآوری داده برای اقتصادهای نوظهور به اندازهای است که برای توصیف آن، کاولدری و مخیاس اصطلاح «استعمار دادهها14» (کوکلبرگ، 1403: 108) و شوشانا زوبوف15، اصطلاح «سرمایهداری نظارتی16» را به کار میبرند.
به استدلال زوبوف، در سرمایهداری نظارتی، اطلاعات خصوصی انسانها به کلیدیترین کالا و رکن قدرت تبدیل میشود که همۀ شئون جامعۀ سرمایهداری را تحت تأثیر خود قرار میدهد. جمعآوری داده، وقتی با انگیزه کسب سود ترکیب شود، میتواند به تهدیدی برای خودمختاری انسانها تبدیل شود. در این سیستم، هرچند شرکتهایی مانند گوگل ممکن است به صورت رایگان نیازهای انسانها را تأمین کنند، با این حال انسانها نمیتوانند مستقل از آن سیستم عمل کنند. زبوف از گوگل با عنوان پدیدآورندۀ سرمایهداری نظارتی نام میبرد که در ظاهر، خدمات رایگان به کاربران ارائه میدهد، اما در واقع هزینۀ آن را از ناحیۀ جمعآوری دادههای خصوصی و بهرهبرداری از آنها تأمین میکند (ر.ک: زوبوف، 1403). در این چارچوب، به گفتۀ کوکلبرگ، حتی احساسات ما هم تحت نظارت هستند و از آنها کسب درآمد میشود (کوکلبرگ، 1403: 186). همۀ شرکتهای دیجیتال و سامانههای پیامرسان معروف در ازای جمعآوری اطلاعات، خدمات ارائه میدهند؛ اطلاعاتی که یا خود برای کسب سود از آن بهرهبرداری میکنند و یا به شرکتهای بزرگتر و حتی دولتها میفروشند(3). این شرکتها در سرمایهداری نظارتی، همان جایگاه را دارند که تولید انبوه برای نظام فوردی داشت.
در این میان، تعداد محدودی از شرکتها هستند که سکاندار تحولاتند؛ شرکتهایی که امی وب17، آیندهپژوه، آنها را «نهگانۀ بزرگ» نامیده است: در ایالات متحده، گوگل، مایکروسافت، آمازون، فیسبوک، آی بی ام و اپل و در چین، تنسنت، علی بابا و بایدو. شرکتهای چینی، حجم عظیمی از دادهها را استخراج و تجمیع میکنند و سپس برای پیشبرد مقاصد سیاسی در اختیار دولت قرار میدهند. آمریکاییها نیز سرمایهداری نظارتی را در یک چارچوب حقوقی و سیاسی خاص دنبال میکنند. از سال 2021، آمریکاییها علاقه چندانی به اجرای برنامههای استراتژیک برای آیندۀ دموکراتیک نشان نمیدهند (Risse, 2023: 102). به نظر میرسد که کشورهای اتحادیۀ اروپا نیز بهشدت درگیر انجام چنین کارهایی هستند که موج راستگرایی را میتوان نشانۀ آن دانست. گزارش خانۀ آزادی آمریکا نشان میدهد که طی سالهای گذشته، روند آزادی در جهان، سیر نزولی یافته و تعداد کشورهایی که میتوان ذیل عنوان کشورهای آزاد طبقهبندی کرد، در حال کاهش است (باقری دولتآبادی، 1403: 22).
در نظامهای اقتصادی پیشین، جمعآوری دادهها تاحد زیادی برای بهبود خدماترسانی بود. اما اکنون در سرمایهداری نظارتی، دادهها برای شناخت و پیشبینی احساسات، گرایشها، افکار و رفتارهای مردم و همچنین برای کنترل و تغییر آنها اغلب با انگیزۀ کسب درآمد به کار میرود که میتوان آن را به تعبیر برخی فلاسفه سیاسی، «استعمار الگوریتمی» نامید (کوکلبرگ، 1403: 109). با مراجعه به اندیشههای مارکس و انگلس درباره سازوکار اساسی سرمایهداری، جمعآوری دادهها در مقیاس بزرگ را میتوان اوج کالایی شدن جهان زیست معاصر انسانها ارزیابی کرد که هوش مصنوعی تسهیلگر آن تلقی میشود. بنابراین هوش مصنوعی میتواند دستیابی به سطح لازم از برابری اقتصادی و اجتماعی مورد نیاز برای شکوفایی دموکراسی را با مشکل مواجه کند.
4) تقویت حکومتهای توتالیتر و خودکامه
سیاست، عرصۀ کشاکش قدرت بین دولت و جامعه است. دموکراسی، زمانی تباه میشود که قدرت دولت بر قدرت جامعه غلبه کند و نهادهای مدنی را کنترل یا به تسخیر خود درآورد. تداوم فرایند غلبه قدرت دولت بر قدرت جامعه در نهایت به وضعیتی منتهی میشود که در ادبیات علوم سیاسی برحسب مورد، استبداد، خودکامگی یا توتالیتاریسم نامیده میشود. هرچند ممکن است در برخی از این نظامها، ظواهر دموکراسی مثل برگزاری انتخابات وجود داشته باشد، حکومت آنها ماهیت دموکراتیک ندارد. بهویژه حکومتهای توتالیتر یا تمامیتخواه، هیچگونه مرزی میان حوزۀ عمومی و حوزۀ خصوصی قائل نیستند و با تمام توان در پی دخالت در تمامی عرصههای زندگی مردم هستند. سرکوب سیاسی، سانسور، نظارت جمعی و فقدان کامل آزادیهای سیاسی از جمله شاخصههای اصلی این رژیمهاست.
امروزه فناوریهای دیجیتال، ابزار جدیدی را برای نظارت و دستکاری ذهنی ارائه میدهند که ممکن است به تقویت تمامیتخواهی منجر شود. هوش مصنوعی از جمله این فناوریهاست که نهتنها میتواند به حاکمان مستبد و حامیان آنها در تقلب در انتخابات، انتشار اطلاعات نادرست و کنترل و سرکوب مخالفان کمک کند، بلکه میتواند زمینهساز نوع خاصی از نظارت و کنترل باشد که طی آن، همۀ افراد جامعه به طور کامل مورد واکاوی و حسابرسی قرار گیرند. مک کارتی جونز، این وضعیت را با آنچه در اتحاد شوروی تحت حاکمیت استالین و چین تحت حاکمیت مائو بود، تطبیق داده است (کوکلبرگ، 1403: 160).
از نظر ظرفیتهای فناوری، هیچ محدودیتی برای نظارت انبوه دولتها از طریق استفاده از هوش مصنوعی و علم داده وجود ندارد. افشاگری اسنودن در سال 2013 نشان داد که دستگاههای اطلاعاتی، چگونه با ابزار هوش مصنوعی، این کار را انجام میدهند. امروزه امکاناتی مانند تلفن، پلتفرمهای رسانههای اجتماعی، ایمیل و مرورگرها به عنوان منابع جمعآوری داده در خدمت دولتها هستند و آنها با تجزیه و تحلیل این دادههای کلان، جزئیترین اطلاعات را درباره کارها و فعالیتهای شهروندان (شامل اینکه چه کسی کجا رفته، با چه کسی ارتباط برقرار کرده و چه چیزی خوانده است) به دست میآورند (Risse, 2023: 102).
جایی که سیستمهای هوش مصنوعی برای ارائۀ خدمات عمومی به کار میروند، آنها بیش از آنکه بر وظیفۀ خدمترسانی به مردم تمرکز داشته باشند، اغلب بر کارویژۀ نظارت بر مردم تمرکز دارند. برای نمونه، دولت چین از دادههای سیستم اعتبار اجتماعی چین برای ردیابی و شناسایی افراد استفاده میکند. به علاوه از فیلمبرداری با دوربینهای نظارتی و نرمافزارهای تشخیص چهره، تشخیص صدا و دادههای خصوصی شرکتهای فناوری مانند علیبابا و بایدو نیز برای اعمال نظارت بر مردم استفاده میکند؛ چیزی که دایموند، آن را «تمامیتخواهی پستمدرن» مینامد (کوکلبرگ، 1403: 162). بنابراین هوش مصنوعی میتواند به ابزار فرمهای جدیدی از تمامیتخواهی تبدیل شود که در چارچوب آنها، دیگر احساسات و انتخابهای انسانی، منطقۀ ممنوعه یا مقدس نیستند و همواره در معرض خطر هک شدن و دستکاری قرار دارند. این قابلیت، فرصتهای جدیدی را برای استبداد یا به تعبیر دیگر، «لویاتان فناوری» هم از سوی دولتها و هم از سوی شرکتها فراهم میکند.
بنابراین فناوری هوش مصنوعی در شرف تبدیل شدن به یکی از خاستگاههای توتالیتاریسم است. برای درک این موضوع ما باید به اندیشه کسانی مراجعه کنیم که مصادیق تاریخی توتالیتاریسم را بررسی کرده و نشان دادهاند که چگونه دموکراسیها میتوانند به نقطۀ مقابل خود بدل شوند. در این میان، هانا آرنت، یکی از برجستهترین اندیشمندانی است که به این موضوع پرداخته است. او در کتاب «خاستگاه توتالیتاریسم» که در سال 1951 منتشر شد، با اشاره به نمونههای آلمان نازی و اتحاد شوروی به تبیین زمینههای شکلگیری رژیمهای تمامیتخواه پرداخت. به استدلال او، توتالیتاریسم در شرایط فقدان عمل سیاسی رشد میکند. عمل سیاسی مستلزم همکاری، همبستگی، اعتماد، اقدام جمعی و گریز از تنهایی و انزواست. او نشان داد که چگونه تنهایی، «انزوا و فقدان روابط اجتماعی عادی» منجر به وحشت و اضطراب مردم میشود و آنها را در برابر اشکال مختلف خشونت آسیبپذیر میکند و بدین ترتیب زمینه را برای سوءاستفاده رهبران تمامیتخواه آماده میکند. این گفته به جهانی بدون اعتماد اشاره میکند؛ جهانی که «در آن هیچکس قابلاعتماد نیست و نمیتوان به هیچچیز اعتماد کرد» (آرنت، 1366: 332-339).
هوش مصنوعی و سایر فناوریهای دیجیتال میتوانند به این پدیده کمک شایانی کنند. به گفتۀ ترکل، ماشینها میتوانند به تنهاتر شدن ما کمک کنند. او در کتاب «تنها در کنار یکدیگر» مینویسد: «رباطها ممکن است توهم همراهی و عدم نیاز به دوستی را به ما بدهند، ... ما در یک شبکه از افراد قرار داریم، اما احساس میکنیم که کاملاً تنهاییم. پشت صفحۀ گوشی یا کامپیوتر پنهان میشویم، حتی تماس گرفتن با افراد دیگر را نیز غیر محترمانه تلقی میکنیم. اگر به این توهم ادامه دهیم، این ریسک را میپذیریم که با دیگران بهمثابه اشیا برخورد کرده، از آنها برای سرگرمی استفاده کنیم» (Turkle, 2011: 154). هشدار ترکل درباره ریسک «تنها بودن در کنار یکدیگر» را باید جدی گرفت. تنهایی نهتنها یک احساس غمانگیز شخصی است، بلکه اگر منجر به از بین رفتن همبستگی عمومی شود، تبدیل به چنان مشکل سیاسی و خطرناکی خواهد شد که به زمینهسازی توتالیتاریسم کمک خواهد کرد (کوکلبرگ، 1403: 166).
هوش مصنوعی و سایر فناوریهای دیجیتال به همان اندازه که به این پدیده کمک میکنند، از نظر سیاسی مشکلساز خواهند بود. برای مثال در نظر بگیرید که چگونه رسانههای اجتماعی، اضطراب عمومی ایجاد میکنند و چگونه این کار ممکن است منجر به قبیلهسازی شود؛ ما دائماً با اخبار بد و هیجانانگیز بمباران میشویم و در فضای بیاعتمادی رسانهای فقط به اطلاعات قبیله خود اعتماد میکنیم. اتاقهای پژواک و حبابهای شناختی بیشتر به این قبیلهسازی کمک میکنند. اضطراب، تنهایی و جدایی را تشدید میکند و قبیلهسازی نهتنها ممکن است به قطبی شدن سیاسی و توزیع سپهر عمومی منجر شود، بلکه منجر به خشونت نیز میگردد. به علاوه وقتی آرنت ادعا میکند که اردوگاههای کار اجباری نازیها از طریق روشهای کنترلشدۀ علمی، انسانها را صرفاً به اشیا تبدیل میکردند، میتوان در نظر گرفت که فرمهای دستکاری رفتاری از طریق هوش مصنوعی، چگونه میتواند تأثیر اخلاقی مشابهی داشته باشد؛ تا آنجا که مردم را به موجوداتی تبدیل کنند که آرنت، آنها را «حیوانات» منحرفی مینامد که برای هک شدن، آمادگی کامل دارند (همان: 167). اینها بخشی از زمینههایی است که در چارچوب اندیشۀ آرنت، مستعد خیزش توتالیتاریسم جدید است.
فراتر از زمینههای جامعهشناختی پیشگفته که به خیزش توتالیتاریسم کمک میکند، معادلات بینالمللی نیز ممکن است تحت تأثیر توسعۀ هوش مصنوعی به طور نامتقارن به نفع رژیمهای خودکامه تغییر کند. کشورهای دموکراتیک ممکن است بر اساس موازین تنظیمگری دموکراتیک برای برخی کاربردهای فناوری هوش مصنوعی با برخی محدودیتهای جدی مواجه باشند. این در حالی است که رژیمهای غیردموکراتیک، بدون هرگونه محدودیتی میتوانند از هوش مصنوعی برای توسعۀ ظرفیتهای دولت، رشد اقتصادی و توسعۀ قابلیتهای نظامی و اطلاعاتی استفاده کنند. امروزه تخصیص گستردۀ منابع در دولتهای غیر دموکراتیک برای توسعه و بهکارگیری فناوری هوش مصنوعی، این باور را القا میکند که ممکن است مزیت رقابتی این دولتها نسبت به دموکراسیها افزایش یابد. از اینرو نگرانیهای روزافزونی وجود دارد که هوش مصنوعی دموکراسیها را به حکومتهای استبدادی و حتی توتالیتر تغییر دهد (Jungherr, 2023: 8).
سرمایهگذاری در هوش مصنوعی به ساختار اقتدارگرا کمک میکند تا ظرفیتهای دولتی را برای مثال از طریق حکمرانی و برنامهریزی هوشمند افزایش دهند. این امر بهنوبه خود میتواند کیفیت ارائه خدمات عمومی دولت را ارتقا بخشد. همچنین ممکن است برای افرادی که در حکومتهای استبدادی زندگی میکنند، امکانات فرهنگی، اقتصادی و بهداشتی بیشتری فراهم کند. در این میان ممکن است برخی با رویکرد داد و ستد، این مزایا را به عنوان منافعی در نظر بگیرند که مردم در ازای از دست دادن آزادیهای فردی به دست میآورند. مثال روشن این امر در حال حاضر چین است که از جمعآوری دادهها در مقیاس بزرگ با هوش مصنوعی (برای مثال از دادههای سیستم اعتبار اجتماعی چین) برای پشتیبانی برنامهریزی و کنترل اجتماعی استفاده میکند. علاوه بر این، کاربرد فناوری هوش مصنوعی در حوزۀ نظامی و امنیتی بیش از پیش در حال رشد است. اتحادیه اروپا و دولتهای ایالاتمتحده، چین و روسیه، همگی هوش مصنوعی را به عنوان یک حوزۀ استراتژیک ژئوپلیتیکی و رقابت اقتصادی میشناسند. برای مثال، روسیه با هدف تبدیل شدن به یک رهبر هوش مصنوعی در جهان، کاربرد این فناوری برای توسعه و بهینهسازی سیستمهای نظامی و اطلاعاتی را در رأس اولویتهای خود قرار داده است. این در حالی است که نقش هنجاری و ظرفیتهای عملی آن بهشدت مورد مناقشه است (رشیدی، 1400: 59-85). به هر حال شکلگیری مسابقۀ هوش مصنوعی در نظام بینالملل میتواند مخاطرات جدی برای حفظ صلح و امنیت بینالمللی به همراه داشته باشد؛ بهویژه با این استدلال که امکانات هوش مصنوعی دولتهای خودکامه و شرور و بازیگران میلیشایی مانند مجرمان سایبری را برای پیشبرد مقاصدشان، توانمندتر میکند (دهقانی فیروزآبادی و چهرآزاد، 1402: 117-119 و 261-297).
نتیجهگیری
با ظهور و توسعۀ فناوری هوش مصنوعی، انسان وارد مرحلۀ جدیدی از زندگی شده است که مسائل جدیدی درباره نحوۀ حکمرانی ایجاد میکند. از جمله اینکه آیا انسان در اسارت الزامات ناشی از فناوری خواهد ماند؟ آیا انحصار فناوریهای پیشرفته در دست گروهی از مردم یا کشورها باعث بازتولید سلطه آنها بر دیگران خواهد شد؟ یا اینکه انسانها میتوانند از طریق سازوکارهای بازاندیشانه در زندگی سیاسی، سلطۀ فناوری را تضعیف و عاملیت خود را حفظ کنند؟ مفهومبندی دیگرِ پرسشهای یادشده این است که توسعه و استقرار فناوری هوش مصنوعی، چه تأثیری بر سرنوشت دموکراسی دارد؟ آیا دموکراسی با بحران مواجه میشود یا اینکه با بهرهگیری از فرصتهای جدید بر پویایی و دوامش افزوده خواهد شد؟ در مقالۀ حاضر تلاش شد تا به این پرسش پاسخ داده شود و در این میان به تبیین چالشهای فراروی دموکراسی در عصر دیجیتال پرداخته شد.
روشن است که هوش مصنوعی همانند هر نوآوری فناورانه دیگر میتواند همزمان فرصتها و چالشهای مختلفی برای جامعۀ سیاسی به همراه داشته باشد. اما از آنجا که کاربرد هوش مصنوعی در جامعه و سیاست در آغاز راه است و افق تحولات آینده، چندان روشن نیست، شاید نتوان پاسخ قطعی به مسائل یادشده ارائه داد و آیندۀ دموکراسی را بهروشنی ترسیم نمود. با این حال در چارچوب عمل به رسالت دانشگاهی، بر اساس شواهد موجود و با تکیه بر بینشهای فلسفی، در این پژوهش با بررسی انتقادی نقاط تماس دموکراسی و هوش مصنوعی، تعدادی از چالشهای اساسی دموکراسی در عصر دیجیتال استخراج شد. این چالشها در قالب یک مدل مفهومی ابتکاری در چهار سطح ذهنی، ارتباطات اجتماعی، اقتصادی و سیاسی طبقهبندی و بررسی شد: در سطح ذهنی، چالش دستکاری افکار عمومی؛ در سطح ارتباطات اجتماعی، چالش مخدوش شدن محیط اطلاعاتی؛ در سطح اقتصادی، چالش گسترش نابرابری و تبعیض؛ و بالاخره در سطح سیاسی، خطر خودکامگی و تمامیتطلبی.
این مدل بیانگر وجود نظامی از چالشهای فناوری هوش مصنوعی برای دموکراسی است که هر کدام از چالشها، ارتباط تنگاتنگ و سیستماتیک با سایرین دارد. به این معنا که گسترش هر کدام از آنها، چالشهای دیگر را بازتولید میکند. اما در این میان ابرچالش دموکراسی، خطر توتالیتاریسم است که میتوان آن را نتیجۀ کارکرد سه چالش دیگر ارزیابی کرد. بر اساس نظریههای کسانی که به تببین علل جامعهشناختی پدیدۀ توتالیتاریسم پرداختهاند، مؤلفههای دستکاری افکار عمومی، مخدوش شدن محیط اطلاعاتی و بالاخره فقر و نابرابری، جملگی زمینههای خیزش توتالیتاریسم هستند که به نظر میرسد در عصر دیجیتال، سازوکارهای فناوری هوش مصنوعی، آنها را تقویت میکند. برای تضمین آیندۀ دموکراسی، ضروری است هشدارها در ارتباط با این چالشها جدی تلقی شود و بر این پایه، گامهای عملی مؤثری برای تنظیمگری و مقرراتگذاری هوش مصنوعی در سطوح ملی و بینالمللی برداشته شود. اینجاست که حکمرانی هوش مصنوعی، موضوعیت مییابد و در این چارچوب، طراحی انتخابهای آگاهانه و ممیزیهای شفاف میتواند به ترمیم اختلالات و کشف سوگیریها کمک کند.
با توجه به اینکه پیامدهای سیاسی و اجتماعی توسعۀ کاربردهای هوش مصنوعی عمدتاً مربوط به آینده است، بنابراین لازم است پویایی کاربرد هوش مصنوعی در جامعه و اثرات بعدی آن بر دموکراسی همواره بررسی و کنترل شود. تجزیه و تحلیل اثرات هوش مصنوعی بر دموکراسی، بستگی به ویژگیهای مربوط به نوع هوش مصنوعی، نحوه عملکرد، شرایط کاربرد و زوایای مختلف دموکراسیهایی دارد که در تماس با هوش مصنوعی قرار میگیرند. در این میان شایسته است فرصتها و تهدیدهای هوش مصنوعی در کنار هم دیده شود. هرچند اغلب ابعاد تهدیدآمیز هوش مصنوعی مورد بحث قرار میگیرد، همزمان ممکن است آنگونه که طرفداران یوتوپیای دموکراتیک استدلال میکنند، هوش مصنوعی در بردارندۀ فرصتهایی برای ترمیم برخی ناکارآمدیهای دموکراسیهای معاصر باشد.
لازم است دانشپژوهان علوم اجتماعی در تحلیلهای خود دربارۀ دموکراسی معاصر، همانطور که لاتور تأکید کرده است، هوش مصنوعی را به عنوان یک متغیر دخیل مورد توجه قرار دهند و در این چارچوب به تبیین عملکرد درونی و اثرات خاص این فناوری بپردازند. این در حالی است که فناوری هوش مصنوعی بیش از پیش در تحقیقات علوم اجتماعی به عنوان یک روش اکتشافی به کار میرود. از سوی دیگر، متخصصان هوش مصنوعی نیز لازم است پیامدهای توسعه و کاربرد هوش مصنوعی برای دموکراسی را در نظر بگیرند. ارزیابیهایی که صرفاً با تکیه بر سازوکارهای فناورانه انجام میشوند، با خطر مبالغه در تأثیر هوش مصنوعی بر سیستمهای اجتماعی همراه هستند. از سوی دیگر تحلیلهایی که صرفاً متکی بر بینشهای جامعهشناختی هستند، با خطر بازنمایی نادرست کارکرد واقعی هوش مصنوعی مواجهاند. این مهم، بررسی تأثیر هوش مصنوعی بر دموکراسی را به یک رسالت بسیار مهم میانرشتهای در محافل دانشگاهی و علمی تبدیل میکند.
پینوشت
1. سیستمهای هوش مصنوعی محدود (NAI) برای انجام وظایف خاص یا تخصصی در یک دامنۀ محدود طراحی شده و کارهایی مانند تشخیص گفتار، طبقهبندی تصاویر، تشخیص چهره، پردازش زبان طبیعی، ماشینهای خودران و... انجام میدهند.
2. مدل زبانی بزرگ (LLM)، سامانههای هوش مصنوعی هستند که برای درک، تولید و پاسخگویی به زبان انسان طراحی شدهاند. آنها به این دلیل «بزرگ» نامیده میشوند که حاوی میلیاردها پارامتر برای پردازش الگوهای پیچیده در دادههای زبان هستند.
3. شاید نام مافیای الکترونیکی (E-Mafia)، نامی برازنده برای اینگونه شرکتهای ناقض حریم خصوصی در حوزه فناوری اطلاعات باشد.
منابع
آرنت، هانا (1366) توتالیتاریسم، ترجمه محسن ثلاثی، تهران، سازمان انتشارات جاویدان.
باقری دولتآبادی، علی (1403) «تأثیر هوش مصنوعی بر نظریههای جریان اصلی روابط بینالملل»، فصلنامه راهبرد سیاسی، سال هشتم، شماره 1، صص 7-27.
باقری دهآبادی، علیرضا (1393) «بررسی رویکردها و ابعاد هژمونی تکنولوژی بر انسان»، مجله مطالعات بینرشتهای در رسانه و فرهنگ، سال چهارم، شماره 1، صص 1-28.
برکان، ماجا (1402) «هوش مصنوعی و مردمسالاری؛ تأثیر اطلاعات غلط، ربات اجتماعی و هدفگذاری سیاسی»، ترجمه سارا صلحچی، فصلنامه تمدن حقوقی، سال ششم، شماره 18، صص 155-172.
بشيريه، حسين (1378) انديشه هاي ماركسيستي، تهران، نشرني.
جعفری هزارانی، نورالدین (1403) «تکنولوژی و توتالیتاریسم: هوش مصنوعی ابزاری برای دیکتاتور؟!» سیویلیکا، 11 تیر. قابل دسترسی در:
https://civilica.com/doc/2017497[18/5/1403]
دهقانی فیروزآبادی، سید جلال و سعید چهرآزاد (1402) هوش مصنوعی و روابط بین الملل، تهران، بنیاد حقوقی میزان.
رشیدی، احمد (1400) «استراتژی هوش مصنوعی روسیه» فصلنامه علمی مطالعات آسیای مرکزی و قفقاز، سال بیستوهفتم، شماره 116، صص 59-90.
---------- (1386) «بازاندیشی دموکراسی و تحول رابطه جامعه و دولت در عصر جهانی شدن»، فصلنامه سیاست، سال سیوهفتم، شماره 4، صص 113-138.
زوبوف، شوشنا (1403) عصر سرمایهداری نظارتی: مبارزه برای آیندۀ انسان در جبهۀ جدید قدرت، ترجمۀ احسان شاهقاسمی، تهران، علمی و فرهنگی.
فكوهي، ناصر (1386) تاريخ انديشه و نظريههاي انسانشناسي، چاپ پنجم، تهران، ني.
کورتیس، پولی (1402) «هوش مصنوعی جان تازهای به سیاست میدهد»، ترجمه لیلا احمدی، سایت عصر ایران، 29 شهریور، قابل دسترسی در:
https://www.asriran.com/fa/news/908038[18/5/1403].
کوکلبرگ، مارک (1403) درآمدی بر فلسفۀ سیاسی هوش مصنوعی، ترجمۀ علیاصغر رییسزاده، تهران، مؤسسه فرهنگی دکسا.
گيبينز، جان آر و بو ريمر (1381) سياست پستمدرنيته، درآمدي بـر فرهنـگ و سياسـت معاصـر، ترجمـة منصور انصاري، تهران، گام نو.
طهماسبی، جواد (1403) «هوش مصنوعی و دموکراسی»، هفتهنامه تجارت [نشریه الکترونیکی]، اول اردیبهشت، قابل دسترسی در:
https://www.tejaratefarda.com/fa/tiny/news-46746[19/5/1403]
معینی علمداری، جهانگیر (1392) روششناسی نظریههای جدید در علم سیاست، تهران، دانشگاه تهران.
وولی، ساموئل سی و فلیپ ان هاورارد (1400) دستکاری در رسانههای اجتماعی: پروپاگاندای رایانشی، ترجمه عباس رضایی ثمرین و رسول صفرآهنگ، تهران، همشهری.
هراری، یوال نوح (1397) انسان خداگونه: تاریخ مختصر آینده، ترجمه زهرا عالی، تهران، فرهنگ نشر نو.
------------- (1403) «هوش مصنوعی و دموکراسی»، ترجمه نوید رضایی، سایت زیگپ [پایگاه اینترنتی]، اول اردیبهشت، قابل دسترسی در:
https://zigap.ir/mag/conversation-yuval-noah-harari-artificial[17/5/1403]
Acemoglu, D. (2021) “Harms of AI”. In J. B. Bullock; Y. C. Chen; J. Himmelreich; V. M. Hudson; A. Korinek; M. M. Young; B. Zhang (Eds.). The Oxford handbook of AI governance. Oxford. London: University Press. Available at: https://doi.org/10.3386/w29247. [19/8/2024].
Aviram, H.; Bragg, A.; Lewis, C. (2017) “Felon disenfranchisement”. Annual Review of Law and Social Science. Vol. 13. 295–311. Avalable at: https://doi.org/10.1146/annurev-lawsocsci-110316-113558. [10/8/2024].
Dreyfus, H. L. (2008) On the Internet. London: Routledge.
Ellul, J. (1964) The Technological Society. Translated by: J. Wilkinson. New York: Vintage Books. Available at: https:// ia803209.us. archive. org/2/items/ Jacques Ellul The Technological Society/ Jacques%20Ellul%20-%20The%20 Technological%20Society. Pdf. [11/7/2024].
Gardner, H. E. (2011) Frames of Mind: The Theory of Multiple Intelligences. 3rd edition. New York: Basic Books.
Jungherr, A. (2023) “Artificial Intelligence and Democracy: A Conceptual Framework”. Social Media+Society. July-September, 1-14. Available at: Sagepub.com/journals-permeations. Doi: 10.1177/20563051231186353.
Jungherr, A.; Schroeder, R. (2023) “Artificial intelligence and the public arena”. Communication Theory. 33(3). Available at: https:// doi.org/10.1093/ct/ qtad006. [15/8/2024].
Haraway, D. J. (1991) Simians, Cyborgs, and Women: The Reinvention of Nature. New York, Routledge, 1991.
Kissinger, H.; Schmidt, E.; Huttenlocher, D. P.; Schouten, S. (2021). The age of AI: and our human future. New York: Little Brown and Company.
Larson, E. J. (2021) The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Cambridge: Harvard University Press.
Latour, B. (2007) Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford: Oxford University Press.
Muller, C. (2020) ”The Impact of Artificial Intelligence on Human Rights, Democracy and the Rule of Law”. ALLAI. March 20. Online Published. Available at: https://allai.nl/wp-content/uploads/2020/06/The-Impact-of-AI-on-Human-Rights-Democracy-and-the-Rule-of-Law-draft.pdf. [19/8/2024].
Mumford, L. (2010) Technics and Civilization. Illinois, Reprint edition. University of Chicago Press. Available at: https:// monoskop.org/ images/f/fa/Mumford_Lewis_Technics_and_ Civilization. pdf. [28/6/2024].
Nobel, S.U. (2018) Algorithms of Oppression: How Search Engines Reinforce Racism: New York University Press.
Risse, M. (2022) “Artificial Intelligence and the Past, Present, and Future of Democracy”.in S. Voeneky; P. Kellmeyer; O. Mueller; W. Burgard(eds). The Responsible Artificial. 85-103. Published online by Cambridge University Press. Available at: https://doi.org/10.1017/9781009207898.009. [22/7/2024].
Smith, B. C. (2019) The promise of artificial intelligence: Reckoning and judgment. Cambridge: MIT Press.
Turkle, S. (2011) Alone Together: Why we Expect More from Technology and Less from Each Other. New York: Basic Books.
[1] * دانشیار گروه علوم سیاسی، دانشگاه اراك، ایران a-rashidi@araku.ac.ir
[2] . Actor-Networks
[3] . actors
[4] . actant
[5] . Kissinger
[6] . Jungherr
[7] . Risse
[8] . Muller
[9] . Gestell
[10] . Smart City Index
[11] . Computational Propoganda
[12] . deepfake
[13] . Van Dijk
[14] . Data Clonialism
[15] . Shoshana Zuboff
[16] . Surveillance Capitalism
[17] . Amy Webb