- Общество
- 20 Августа, 2025
ВЛИЯНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА СОЦИАЛЬНУЮ РЕАЛЬНОСТЬ ОБЩЕСТВА: ФИЛОСОФСКИЙ АСПЕКТ
Аңдапта. Бұл мақала жасанды интеллекттің (ЖИ) дамуымен байланысты әлеуметтік-философиялық, этикалық және эстетикалық мәселелерді талдауға арналған. Негізгі сұрақтар қарастырылады: ЖИ қазіргі қоғамның әлеуметтік шындығына қалай әсер етеді, адам мен машина арасындағы шекаралардағы өсіп келе жатқан теңсіздікке баса назар аударылады. Этикалық дилеммаларға, соның ішінде алгоритмдердің бейтараптығы, «қара жәшіктердің» мөлдір еместігі және жеке өмірдің қауіпсіздігіне қауіп төндіретін мәселелерге ерекше көңіл бөлінеді, Қазақстан мен әлемдік тәжірибеден мысалдар келтіріледі, мысалы, ЖИ-дің сот жүйесіне енгізілуі және Cambridge Analytica жанжалы. Эстетикалық аспект ЖИ-дің шығармашылық қабілеті, оның өнер туындыларын жасау және шынайы эмоциялар тудыру қабілеті арқылы ашылады, И. Кант пен Л. Мановичке сілтеме жасай отырып. Мақалада осы мәселелерді шешу үшін пәнаралық тәсілдің қажеттілігі атап өтіледі, оның ішінде этикалық стандарттарды әзірлеу және ЖИ-дің қоғамға, әсіресе мәдени, рухани және философиялық айырмашылықтар контекстіндегі ұзақ мерзімді салдарын түсіну үшін одан әрі зерттеулер жүргізу қажет.
Негізгі сөздер: Жасанды интеллект; әлеуметтік-философиялық мәселелер; этикалық дилеммалар; эстетикалық мәселелер; алгоритмдік бейтараптылық; ЖИ мөлдірлігі; құпиялылық; ЖИ автономиясы; ЖИ шығармашылығы; әлеуметтік теңсіздік; адам болмысы; сот талдауы; этикалық жауапкершілік; мәдени айырмашылықтар.
Аннотация. Данная статья посвящена анализу социально-философских, этических и эстетических проблем, связанных с развитием искусственного интеллекта (ИИ). Рассматриваются ключевые вопросы: как ИИ влияет на социальную реальность современного общества, ставится акцент на усиливающемся неравенстве в границах между человеком и машиной. Особое внимание уделяется этическим дилеммам, включая предвзятость алгоритмов, непрозрачность «черных ящиков» и угрозы приватности, с примерами из Казахстана и мирового опыта, такими как внедрение ИИ в судебную систему и скандал с Cambridge Analytica. Эстетический аспект раскрывается через анализ ИИ-творчества, его способности создавать искусство и вызывать подлинные эмоции, с отсылками к И. Канту и Л. Мановичу. В статье подчеркивается необходимость междисциплинарного подхода для решения этих проблем, включая разработку этических стандартов и дальнейших исследований, чтобы понять долгосрочные последствия ИИ для общества, особенно в контексте культурных, духовных и философских различий.
Ключевые слова: Искусственный интеллект; социально-философские проблемы; этические дилеммы; эстетические вызовы; алгоритмическая предвзятость; прозрачность ИИ; приватность; автономия ИИ; ИИ-творчество; социальное неравенство; человеческая идентичность; судебная аналитика; моральная ответственность; культурные различия.
Annotation. This article is devoted to the analysis of socio-philosophical, ethical, and aesthetic issues related to the development of artificial intelligence (AI). It explores key questions: how AI impacts the social reality of modern society, with an emphasis on growing inequality and the blurring boundaries between human and machine. Particular attention is given to ethical dilemmas, including algorithmic bias, the opacity of «black box» systems, and threats to privacy, illustrated by examples from Kazakhstan and global experiences, such as the implementation of AI in judicial systems and the Cambridge Analytica scandal. The aesthetic dimension is examined through the lens of AI-generated creativity, its ability to produce art and evoke genuine emotions, with references to I. Kant and L. Manovich. The article underscores the need for an interdisciplinary approach to address these challenges, including the development of ethical standards and further research to understand the long-term societal implications of AI, particularly in the context of cultural, spiritual, and philosophical differences.
Key words: Artificial Intelligence; socio-philosophical issues; ethical dilemmas; aesthetic challenges; algorithmic bias; AI transparency; privacy; AI autonomy; AI creativity; social inequality; human identity; judicial analytics; filter bubbles; moral responsibility; cultural differences.
Введение
В век стремительного развития информационных технологий человечество обрело невиданные доселе возможности интеграции в глобальное мировое сообщество благодаря современным коммуникационным платформам, которые стали неким эталоном технологического прогресса и, в то же время, как говорят, «размывающим границы между человеком и машиной». И одним из таких технологических трендов стал Искусственный интеллект (ИИ) – изобретение, изменившее наше представление об обществе, морали и духе современности.
Как показывает практика последних лет, возможности ИИ уже не фантазия, а реальность, формирующая нашу повседневность. От голосовых помощников до алгоритмов, определяющих, какие новости мы видим, ИИ проникает в самые разные сферы человеческой жизни. Однако, как философы, мы также видим, что за технологическим прогрессом скрываются проблемы, которые требуют философского осмысления, например: как ИИ меняет наше мировоззрение, отношение общества к индивидууму, ценности морали и подходы к творчеству. И в данном направлении вопросы исследования социально-философских и этических проблем, связанных с развитием ИИ, становятся как никогда актуальными.
Сегодня развитие искусственного интеллекта поднимает в сознании людей не только технические, но и глубокие социально-философские, этические и эстетические вопросы. Ведь мы даже не имеем представления о том, каковы границы автономии ИИ? Может ли машина обладать моральной ответственностью? Каковы перспективы развития ИИ на фоне политических, образовательных и культурных реформ? Способен ли ИИ создавать искусство, которое вызывает подлинные человеческие эмоции и чувства? И, наконец, как скоро ИИ заменит человека по всем вышеперечисленным параметрам, и к чему все это приведет?
Сегодня уже никого не удивить тем, что ИИ успешно заменяет высококвалифицированных и талантливых специалистов, обладающих передовыми знаниями и имеющих досье абсолютно на каждый случай нашей жизни. Например, такие персональные ассистенты, как Алиса, Кортана, Сири или Алекса, включая голосовой помощник Google, как-то незаметно вошли не только в жизнь взрослых, но и детей. Они уже стали частью нашей жизни. Виртуальные помощники могут за вас проверить вашу почту, прочитать вам новости по утрам, заказать еду на дом, вызвать такси и даже назначить встречу в удобной вам локации. И все это можно сделать без каких-либо нажатий на клавиши, просто скомандовав голосом.
И это, не говоря о том, что ИИ уже прекрасно, без чьей-либо помощи, генерирует презентации в течение нескольких секунд, пишет стихотворения или аналитические статьи для мировых изданий, включая музыку под любой стиль. ИИ также успешно используется в военной сфере, а также в работе правоохранительных органов, помогая идентифицировать личность человека по биометрическим данным на фото и видеоизображениях (даже если у человека на лице маска).
Общаясь в кругу высококлассных специалистов в области юриспруденции, медицины или других гуманитарных наук, можно с удивлением для себя обнаружить, что все эти специалисты частично делегировали свои навыки нейросетям. Например, юристы с помощью ИИ пишут исковые заявления или ходатайства, медики определяют диагноз пациента и назначают лечение, а учителя разрабатывают увлекательные викторины, чтобы подготовить своих учеников к олимпиадам или государственному тестированию. При этом нельзя сказать, что эти люди делают какие-то запретные вещи, пренебрегая своим отношением к работе. Использование ИИ в сотни раз экономит время и, как ни странно, «результат их работы от этого никак не страдает». Другой вопрос касается рассмотрения развития ИИ через призму философских теорий, этических дилемм и эстетических трансформаций. Анализ работы зарубежных исследователей помогает нам глубже осмыслить то обстоятельство, как ИИ меняет наше понимание человека, общества и творчества.
В Казахстане ИИ стал пользоваться широкой популярностью буквально после пандемии в 2022–2023 годах, как раз тогда, когда модели вроде ChatGPT и их аналогов начали генерировать тексты, изображения и музыку, почти неотличимых от человеческих. Именно тогда философы, этики и культурологи заговорили о новом этапе антропологического кризиса [1].
Анализ литературы:
Статья опирается на 24 источника, включая академические книги, научные статьи, отчеты, пресс-релизы и онлайн-материалы. Литература охватывает философские, этические, эстетические и социальные аспекты искусственного интеллекта (ИИ), включая работы классических и современных философов, а также исследования и актуальные примеры из Казахстана и мира.
1. Социально-философские
и этические последствия ИИ
Молодежь довольно искусно научилась использовать блага ИИ в своей повседневной жизни. С помощью нейросетей молодые люди уже без каких-либо проблем стали писать аналитические материалы, готовить отчеты и даже вести переписки с авторитетными зарубежными изданиями. С легкой долей оптимизма можно заключить, что это положительное веяние современности, но здесь на ум приходит известное выражение из цикла восточных сказок «Тысяча и одна ночь»: «Джин выпущен из бутылки», и загнать туда его уже невозможно. Это говорит о том, что ИИ изменил наше представление о социальной реальности за невероятно короткое время. И следующие поколения уже не представят своего будущего без искусственного интеллекта, если развитые и развивающиеся страны не разработают специальных законодательных ограничений по их применению в специализированных областях. Даже при всех своих преимуществах, ИИ довольно часто допускает ошибки, выдавая некорректную и искаженную информацию. И, по-нашему мнению, эти недостатки скоро легко исправят, устранят, это лишь вопрос времени, так как с каждым годом возможности ИИ становится труднее отличить от возможностей реального человека.
Как отмечает израильский военный историк-медиевист, а также футуролог Юваль Ной Харари, технологии ИИ могут стать «зеркалом», в котором человечество увидит свои сильные и слабые стороны [2, 1-20]. Для нас важнее разглядеть, что именно отражается в этом зеркале. По мнению авторитетных западных экспертов, во-первых, ИИ усиливает социальное неравенство. Алгоритмы, используемые в социальных сетях или системах найма, часто воспроизводят человеческие предубеждения. Исследование 2019 года, проведенное Оберлинским университетом имени Дж. Ф. Оберлина, показало, что алгоритмы распознавания лиц ИИ демонстрируют расовые и гендерные искажения, ошибочно идентифицируя темнокожих женщин в 34% случаев по сравнению с 0,8% для белых мужчин [3, 77-91]. Это можно просто назвать технической ошибкой, однако, на наш взгляд, это еще и философская проблема, связанная с тем, как мы кодируем наши ценности в машины, и как это соотносится с этическими и моральными принципами общества, прозрачностью и объективностью работы ИИ.
Этические дилеммы ИИ – пожалуй, самая обсуждаемая часть проблемы, которая уже сейчас вызывает бурные дискуссии среди сторонников внедрения ИИ в судебные системы. По крайней мере, в нашей стране этот вопрос все еще ждет своего часа. В Казахстане элементы искусственного интеллекта внедрены с 2022 года под термином «Цифровая аналитика судебной практики». Компьютер молниеносно анализирует миллионы судебных актов в один клик. Кроме поиска по «ключевым словам», сервис выдает аналитику по ситуации. Программа обучена понимать суть судебных решений, сравнивать их между собой, выявлять аномалии и прогнозировать исход гражданского дела. И судья при поступлении иска видит судебную практику по схожим делам, вплоть до кассации. Как объяснили в Верховном Суде нашей страны, решения всегда будут принимать сами судьи: ИИ не заменяет судей, а значительно упрощает решение их рутинных задач. Анализ ИИ может использоваться только как дополнительный справочный материал [4].
При этом вопрос предвзятости алгоритмов ИИ в судебной системе по-прежнему остается одной из главных тем не только в Казахстане, но и во всем мире. Исследование ProPublica показало, что алгоритмы, используемые в судебной системе США, дискриминировали афроамериканцев, предсказывая их «склонность к рецидивам» на основе предвзятых данных [5]. Данное обстоятельство вызывает беспокойство и поднимает множество актуальных проблем, таких, как обеспечение справедливости в условиях, где ИИ обучается на данных, отражающих человеческие предрассудки.
Еще одна проблема – прозрачность. Многие алгоритмы, особенно глубокие нейронные сети, работают как «черные ящики»: даже их создатели не всегда понимают, как принимаются решения [6, 10]. Это противоречит кантовскому принципу морали, который требует, чтобы действия были понятны и обоснованы [7, 30]. Если ИИ самостоятельно принимает решение на предмет одобрения кредита кому-либо или увольнения работников, при этом никто не может объяснить, почему так происходит, то это подрывает также доверие к технологиям ИИ.
Приватность – еще один этический вызов. В 2018 году скандал с Cambridge Analytica показал, как данные пользователей могут быть использованы для манипуляции [8, 1-5]. Не секрет, что ИИ сегодня – это большое хранилище мировой информации, анализирующее сообщения, поисковые запросы, которое фиксирует и запоминает даже выражение наших лиц. Иными словами, ИИ создает мир, где личное становится общественным достоянием. Например, чего стоят участившиеся случаи интернет-мошенничества в Казахстане, которых буквально за прошлый год было зарегистрировано 22 000. А сумма ущерба, нанесенного простым гражданам, составила – 45,5 млрд тенге. К сожалению, большая часть пострадавших так и не смогла вернуть свои сбережения. Во всех случаях мошенники использовали возможности ИИ. Это не только вмешательство в личную жизнь, это еще и слежка за финансовыми данными. Здесь невольно вспоминается «паноптикум» Бентама, о котором писал Фуко, предупреждая человечество о тотальной слежке [9, 195-228]. Сегодня ИИ – это новый паноптикум, где люди, сами того не подозревая, становятся объектом неусыпного наблюдения.
И, наконец, есть ведь моральные дилеммы, связанные с автономным ИИ. Классический пример – «проблема вагонетки»: должен ли ИИ в аварийной ситуации пожертвовать одним человеком ради спасения пятерых? Исследования MIT показали, что люди в разных культурах по-разному отвечают на этот вопрос [10, 59-64]. А это значит, что универсальной «этики ИИ» не существует, и программировать мораль – значит навязывать чьи-то ценности.
Во-вторых, ИИ поднимает вопрос о человеческой идентичности. Нет никаких сомнений в том, что в скором будущем машины смогут безупречно имитировать эмоции людей или даже эмпатию, заменяя их в повседневной жизни. Но в таком случае возникает и другой вопрос: где проходит граница между человеком и машиной? Философ Дэниел Деннет в своей работе 2021 года утверждает, что ИИ не обладает сознанием, но его способность к «поведенческой мимикрии» заставляет нас сомневаться в уникальности человеческого опыта [11].
В-третьих, помимо всего прочего, не следует забывать о том, что ИИ трансформирует общество на нескольких уровнях: от экономики до межличностных отношений. И один из важных вопросов заключается в том, как ИИ влияет на труд. Исследование Оксфордского университета показывает, что до 47% рабочих мест в развитых странах могут быть автоматизированы к 2030 году [12, 254-280]. Это не просто дилемма для современного общества, это становится проблемой для многих развитых государств мира, поскольку, чем больше безработных (вследствие делегирования их профессиональных навыков машинам) числится на трудовой бирже, тем больше экономических и политических проблем испытывает система власти. Ведь утрата работы меняет внутреннее самоощущение человека, его место в обществе, а это значит, что недовольных граждан будет становиться больше. Когда машины берут на себя рутинные задачи, что остается человеку? Например, Карл Маркс, размышляя о капитализме, предупреждал об отчуждении труда [13, 70-80]. Сегодня мы сталкиваемся с новым видом отчуждения – отчуждением от смысла работы.
В-четвертых, ИИ меняет социальные взаимодействия. Социальные сети, управляемые алгоритмами, формируют «пузыри фильтров», усиливая поляризацию [14]. Достаточно вспомнить, как в 2020 году алгоритмы TikTok радикализировали политические взгляды подростков, подбирая контент, который усиливал их эмоции. Данное обстоятельство уже нельзя назвать просто технической проблемой – это вызов для философии общения. Хайдеггер говорил, что технология «раскрывает» мир, но одновременно «скрывает» его подлинность [15, 3-35]. В определенной степени ИИ делает то же самое – упрощает коммуникацию между людьми, но при этом отдаляет их от настоящего диалога.
На наш взгляд, подобные утверждения предоставляют человечеству возможность не слепо пользоваться возможностями бездушных нейросетей в погоне за социальным рейтингом – показателями на работе, в учебе и личной жизни, а переосмыслить те блага, которые делают нас людьми с эмоциями, чувствами и творческим подходом к делу. Благодаря своему несовершенству ИИ заставляет нас все еще ценить те самые ошибки и случайности, совершенные человеком, которые машины пока не могут воспроизвести.
2. Дилеммы автономии ИИ,
этический аспект
Этические вопросы ИИ связаны с его автономией и ответственностью. Кто несет ответственность, если самоуправляемый автомобиль, начиненный ИИ, попадает в аварию? Философ Ник Бостром в книге «Суперинтеллект» (2014) предупреждает, что сверхразумный ИИ может выйти из-под контроля, если его цели не будут точно согласованы с человеческими ценностями [16]. Эта идея, хотя и кажется фантастической, уже находит отражение в реальных сценариях. Например, в 2022 году эксперимент с ИИ от Google (LaMDA) вызвал споры, когда инженер заявил, что система демонстрирует признаки сознания [17]. Несмотря на то, что большинство экспертов опровергли этот факт, дискуссия показывает, что ИИ постепенно размывает границы между собой и живыми людьми.
При этом, многих современных философов волнует вопрос предоставления ИИ полной автономии не только в творческой, судебной, медицинской и образовательной сферах, но и в аспектах военной безопасности. Автономное оружие, способное принимать решения без человеческого вмешательства, вызывает протесты среди этиков. В докладе Human Rights Watch за 2023 год подчеркивается, что такие системы могут нарушать международное гуманитарное право, так как не способны учитывать контекст или моральные нюансы [18].
Философы, такие как Ник Бостром, задаются вопросом: что, если ИИ станет настолько автономным, что начнет принимать решения, неподконтрольные человеку? [19]. И как в будущем решения ИИ будут влиять на свободу человека – большой вопрос, требующий незамедлительного ответа.
Эти дискуссии поднимают множество спорных тем среди мировой общественности, и при этом никто не может дать вразумительный ответ на простейший вопрос: «Если машина совершит ошибку, использовав ядерное оружие, кто за это понесет ответственность, и насколько этично доверять ИИ глобальную безопасность?». Данный вопрос до сих пор не дает покоя молодым ученым.
3. ИИ-творчество и эстетические вызовы
В начале этой статьи мы уже говорили о том, что ИИ создает картины, музыку и литературу, вызывающие неподдельное восхищение и споры у ученых. В 2018 году картина, созданная алгоритмом GAN, была продана на аукционе Christie’s за 432 500 долларов США [20]. Это очень интересное событие, но является ли это искусством? Эстетическая философия предлагает на данный вопрос разные ответы.
Например, Иммануил Кант считал, что искусство связано с человеческим гениальным замыслом, чего ИИ, по мнению некоторых современных философов, лишен [21, 170-190]. Однако некоторые теоретики, такие как Лев Манович, утверждают, что ИИ-творчество – это новый вид эстетики, основанный на сотрудничестве человека и машины [22]. Сегодня мы можем уверенно сказать, что ИИ вполне по силам создавать искусство, которое трогает душу. Так, ему удается неплохо исполнять роль инструмента, расширяющего человеческий потенциал.
Конечно, есть и оптимистичный взгляд: ИИ позволяет людям, не обладающим техническими навыками, создавать музыку, картины, тексты. Это демократизирует творчество, возвращая нас к идее Ницше о том, что искусство – это способ утверждения жизни [23, 40-60]. Вопрос лишь в том, где проходит та самая грань между творчеством и имитацией.
Социально-философские, этические и эстетические проблемы ИИ тесно переплетены. Например, предвзятость алгоритмов (этическая проблема) усиливает социальное неравенство (социально-философская проблема), а алгоритмы, формирующие наши вкусы, влияют на восприятие искусства (эстетическая проблема).
Чтобы решить эти проблемы, нужны междисциплинарные усилия всего мирового сообщества. Философы должны тесно взаимодействовать с инженерами, чтобы создавать этические стандарты для ИИ. Например, IEEE разработала принципы «этически ориентированного дизайна» [24]. Художники и культурологи могли бы помочь понять, как ИИ влияет на эстетику. А общество должно участвовать в обсуждении, чтобы ИИ отражал разнообразные ценности нашей жизни.
Заключение
В заключение хотелось бы сказать, что ИИ – это своеобразный мир будущего, в котором видны отражения идеального общества, генерирующего новые контуры технологического прогресса и в то же время порождающего определенные страхи. Социально-философские проблемы ИИ заставляют нас переосмысливать идентичность и справедливость. Этические дилеммы требуют новых подходов к ответственности и автономии. Эстетические вызовы побуждают нас пересмотреть природу творчества. Как ученые, мы обязаны не только разрабатывать ИИ, но и задавать вопросы о его месте в нашем мире и в жизни каждого отдельного человека. Возможно, главный урок ИИ в том, что он учит нас быть более человечными – ценить наши несовершенства, эмоции и способность задавать вопросы без ответов. Все это возможно до тех пор, пока человек способен контролировать ИИ, не давая ему абсолютной свободы в решении судьбоносных задач. Наши размышления – это лишь попытка наметить очертания проблем. Дальнейшие исследования должны углубить анализ, особенно в области культурных различий в восприятии ИИ и долгосрочных социальных последствий. Как говорил Сократ, «я знаю, что ничего не знаю» – и в случае с ИИ это особенно актуально сегодня.
Жақыпбек АЛТАЕВ,
доктор философских наук, профессор кафедры философии КазНУ имени
аль-Фараби, научный консультант Центра аль-Фараби
Бахтияр ТОХТАХУНОВ,
докторант 1 курса кафедры социологии и социальной работы ФФиП КазНУ имени аль-Фараби
г. Алматы
ЛИТЕРАТУРА
1. Floridi, L. (2023). The Ethics of Artificial Intelligence. Oxford University Press.
2. Harari, Y. N. (2018). 21 Lessons for the 21st Century. Random House, стр. 1-20.
3. Buolamwini, J., & Gebru, T. (2019). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 77-91.
4. https://www.sud.gov.kz/rus/massmedia/sudyam-kazahstana-pomogaet-iskusstvennyy-intellekt-pravoru-23022023-g
5. Angwin, J., et al. (2016). Machine bias. ProPublica, May 23.
6. Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1).
7. Kant, I. (1785). Groundwork of the Metaphysics of Morals. Cambridge University Press, стр. 30-40.
8. Cadwalladr, C., & Graham-Harrison, E. (2018). Revealed: 50 million Facebook profiles harvested for Cambridge Analytica. The Guardian, March 17.
9. Foucault, M. (1975). Discipline and Punish: The Birth of the Prison. Vintage Books, стр. 195-228.
10. Awad, E., et al. (2018). The moral machine experiment. Nature, 563, 59-64.
11. Dennett, D. C. (2021). Consciousness Explained Revisited. MIT Press.
12. Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, 114, 254-280.
13. Marx, K. (1844). Economic and Philosophic Manuscripts of 1844. Progress Publishers, стр. 70-80.
14. Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.
15. Heidegger, M. (1977). The Question Concerning Technology and Other Essays. Harper & Row, стр. 3-35.
16. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
17. Lemoine, B. (2022). Is LaMDA Sentient? An Interview. Medium.
18. Human Rights Watch. (2023). Killer Robots: The Case for a Ban. HRW Report.
19. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
20. Christie’s. (2018). AI-Generated Artwork Sells for $432,500. Press Release.
21. Kant, I. (1790). Critique of Judgment. Translated by W. S. Pluhar, 1987, стр. 170-190.
22. Manovich, L. (2020). AI Aesthetics. Strelka Press.
23. Nietzsche, F. (1883). Thus Spoke Zarathustra. Penguin Classics, стр. 40-60.
24. IEEE (2019). Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems. IEEE Standards Association.
1814 раз
показано0
комментарий