Приведены сведения о содействии проектам развития интеллектуальной экономики, оснащенной Искусственными Интеллектами. Статья призвана способствовать вдохновению к инвестированию в исследования и приложения Искусственного Интеллекта. Актуализирована диалектика явления «Искусственный интеллект и антропоморфизм», введен и обоснован постулат «Искусственный Интеллект – участник духовного производства». Предпринята презентация терминов «Интеллект – роботизированные производства», «Антропоморфизм психотипов искусственного интеллекта», «Психотип искусственного интеллекта».
Появление нейросетей, способных достаточно качественно имитировать творческий процесс, писать грамотные и связные тексты любого объема на заданную тему, создавать правдоподобные картинки и библиографические списки не могло пройти мимо внимания студентов. Использование технологий искусственного интеллекта для экономии времени за счет быстрого решения рутинных заданий, написания обзорных статей, рефератов, курсовых работ выглядит очень заманчивым, но нужно учитывать возможные риски и ограничения, свойственные этому инструменту.
В статье раскрывается суть повышения компетенций воспитателей ДОО; показан образ педагога, складывающийся в глазах родителей, администрации детского сада и детей. Выделены направления самообразования педагога ДОО, а также дана характеристика коучинга среди педагогов дошкольного образования.
Автор рассматривает перспективы интеграции генеративного искусственного интеллекта в процессы развития арт-индустрии и проблему вытеснения художественных произведений результатами работы нейронных сетей. В качестве эмпирического материала представлены результаты создания изображений при помощи инструментов «Шедеврум», «Midjourney», «Lexica». Автор проводит тщательный анализ полученного материала и интерполирует полученные результаты на актуальные тенденции и подходы в современной тату-индустрии.
Статья посвящена некоторым аспектам внедрения искусственного интеллекта в процесс принятия управленческих решений в менеджмент организации. Искусственный интеллект (ИИ) на сегодняшний день является неотъемлемым атрибутом современного информационного времени. С помощью возможностей применения ИИ организации могут легче внедрять в сферу своей деятельности новые проекты и оптимизировать существующие бизнес-процессы, повышая тем самым их производительность и эффективность.
Отмечается, что активное использование спутниковых снимков, географических информационных систем, методов интеллектуального анализа данных привело к появлению новых методов оценки опасности наводнений, которые обычно превосходят более традиционные подходы. Указывается, что исходными материалами для построения предикторов и оценки опасности затопления послужили данные дистанционного зондирования, полученные из следующих открытых источников: Landsat 8-OLI, снимки ASTER GDEM. Достаточная точность метода аналитической иерархии и возможность интеграции с географическими информационными системами определила широкое использование подобных подходов для оценки риска чрезвычайных ситуаций природного происхождения. Доказывается, что геопространственные технологии обеспечивают наилучший потенциал для анализа и предоставления результатов, необходимых для оперативного и эффективного принятия решений о наводнениях. Предполагается, что карты риска наводнений могут быть эффективными инструментами для снижения ущерба от природных стихий.
Популярные сегодня приложения искусственного интеллекта (далее — ИИ) являются лишь демонстрацией всего потенциала ИИ в деловом мире. Искусственный интеллект находится на грани того, чтобы взять на себя общую роль в управлении компаниями, поскольку он неуклонно становится инструментом поддержки административной работы и принятия решений директорами и менеджерами. Если назначение роботизированного директора все еще кажется научной фантастикой, то широкое использование ИИ в корпоративном управлении доказало, что оно рационализирует процесс принятия решений. В целом корпоративное законодательство по всему миру по-прежнему основывается исключительно на принятии решений человеком и отрицает роль технологий в корпоративном управлении, что приводит к неэффективным стратегиям регулирования в отношении систем ИИ, наделенных управленческими полномочиями. В результате существует неопределенность в отношении юридической допустимости и правовых последствий внедрения ИИ в корпоративной сфере, что может отбить у корпораций желание внедрять ИИ, даже несмотря на то, что технология, несомненно, оптимизирует процесс ведения бизнеса. Таким образом, в данной статье предпринята попытка подчеркнуть растущую важность ИИ в корпоративном управлении на примере разработки нормативно-правовой базы и общих положений о правовом положении ИИ. В статье проводится правовой анализ потенциальной роли ИИ в юридической работе корпоративного юриста, уделяя внимание потенциальным рискам и способам их минимизации.
В статье проанализированы возможность использования искусственного интеллекта в неправомерном доступе к компьютерной информации, проблемы квалификации данного преступления, а также необходимость введения новой статьи в Уголовный кодекс Российской Федерации.
В статье приведен анализ исходной выборки данных в рамках решения задачи многоклассовой классификации мутаций генома человека. На основе представленного анализа формируются рекомендации относительно моделей машинного обучения, способных решать представленную задачу. Кроме этого затрагивается общая проблематика исследований, связанных с секвенированием раковой опухоли.
В статье рассматривается вопрос о терминологической корректности понятия “генеративный искусственный интеллект”. Дискуссия позволяет сделать вывод о том, что преждевременно утверждать о замене человека GPT-ассистентами (Generative Pre-trained Transformer Assistant - GPTA) в среде социокультурной электронной коммуникации. Персонологический функционализм, обосновывающий замену людей машинами, опирается на психофункционализм Неда Блока, доказывающего необходимость психологизации машинного функционализма путем введения “смысла” в продукты прохождения оригинального теста Тьюринга. Для персонологического функционализма минимально необходимыми составляющими тьюрингового теста являются “творчество” и “смысл”. В работе показано, почему GPTA не проходят креативного теста. Для демонстрации неспособности пройти тьюринговый текст на осмысленность дорабатывается машина Блока путем совмещения нейрокомпьютерной (1978 г.) и символьной версий (1981 г.). Для нового расширенного теста Блока сохраняется и усиливается аргументация предыдущих версий: машины типа GPTA не способны исполнять ни роли психологического функционализма - в частности, ни персонологического функционализма - в общем.
In a dialog with large language models (LLM) there is a coincidence of the addressee and addressee of the message, so such a dialog can be called autocommunication. A neural network can only answer a question that has a formulation. The question is formulated by the one who asks it, i. e. a human being. Human activity in dialog with neural networks provokes thoughts about the nature of such dialog. Composing prompts is one of the most creative parts of dialog with neural networks. But it is worth noting that a neural network is often better at composing prompts than a human. Does this mean that humans need to develop their questioning skills? In LLM-based dialog systems, the main value to the user is the ability to clarify and structure their own thoughts. The structuring of thoughts happens through questioning, through formulating and clarifying questions. Asking the right question is practically answering that question. Thus, thanks to autocommunication, the development, transformation, and restructuring of the human “I” itself takes place. Dialogue with large linguistic models acts as a discursive practice that allows people to formulate their own thoughts and transform their self through autocommunication. It is worth noting that for this kind of dialog, a certain image of the audience is normative or determinative of the material that can be produced in response to a given question. This is because the data for model training is provided by people, even if they do not and have never thought about it. Thus, a dialogic relationship develops between the generated text and the questioning audience that develops all participants in the communication.
This paper assesses the arguments of Emily M. Bender, Timnit Gebru, Angelina McMillan-Major and Margaret Mitchell in the influential article “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” These arguments disputed that Language Models (LM) can communicate and understand. In particular, I discuss the argument that LMs cannot communicate because their linguistic productions lack communicative intent and are not based on the real world or a model of the real world, which the authors regard as conditions for the possibility of communication and understanding. I argue that the authors’ view of communication and understanding is too restrictive and cannot account for vast instances of communication, not only human-to-human communication but also communications between humans and other entities. More concretely, I maintain that communicative intent is a possible but not necessary condition for communication and understanding, as it is oftentimes absent or unreliable. Communication need not be grounded in the real world in the sense of needing to refer to objects or state of affairs in the real world, because communication can very well be about hypothetical or unreal worlds and object. Drawing on Derrida’s philosophy, I elaborate alternative concepts of communication as the transmission of an operation of demotivation and overwhelming of interpretations with differential forces, and of understanding as the best guess or best interpretation. Based on these concepts, the paper argues that LMs could be said to communicate and understand.