Сотрудники Google были уволены за заявление о том, что искусственный интеллект компании может мыслить как люди

Более года назад Google анонсировала новый ИИ под названием Language Model for Dialogue Application (LaMDA). Этот продвинутый ИИ может естественно общаться с пользователями практически на любую тему, тем самым открывая более естественные способы взаимодействия с технологиями, а также разнообразный портфель приложений и потенциал.

Что такое LaMDA?

LaMDA означает «Языковая модель для диалоговых приложений» и представляет большую группу разработчиков разговорной языковой модели Google. В быстро развивающемся мире искусственного интеллекта LaMDA — это значительный шаг вперед, направленный на то, чтобы сделать взаимодействие с технологиями более естественным и интуитивным.

LaMDA была представлена ​​как преемник Meena от Google в 2020 году. Первое поколение LaMDA было анонсировано во время выступления на конференции Google I/O 2021 года, а второе поколение будет запущено в 2020 году. Эта модель предназначена для участия в открытых беседах, что делает ее уникальной в области разговорного ИИ.

Базовая технология LaMDA — архитектура Transformer, модель искусственной нейронной сети, которую Google Research изобрела и открыла в 2017 году. Эта архитектура позволяет модели считывать и понимать связи между словами в предложении или абзаце и предсказывать следующие слова. В отличие от многих других языковых моделей, LaMDA специально обучена на разговорах, что позволяет ей улавливать нюансы открытых разговоров. Такое обучение гарантирует, что ответы LaMDA не только разумны, но и специфичны для контекста разговора.

Процесс обучения LaMDA обширен и сложен. Обучение проводилось с использованием огромного набора данных документов, диалогов и утверждений, исчисляемых миллиардами, что в общей сложности составляет 1,56 триллиона слов. Этот огромный набор данных позволяет LaMDA понимать множество разговорных нюансов.

Кроме того, рецензенты-люди играют ключевую роль в улучшении возможностей LaMDA. Эти рецензенты оценивали ответ модели, предоставляя обратную связь, которая помогла LaMDA улучшить ее точность и соответствие. Чтобы обеспечить фактическую точность ответов, эти рецензенты использовали поисковые системы, проверенную информацию и ранжировали ответы на основе полезности, точности и достоверности. их точной реальности.

В конечном счете, сила LaMDA заключается в его способности создавать свободные разговоры, не ограниченные параметрами, основанными на задачах. Он понимает такие концепции, как мультимодальное намерение пользователя, обучение с подкреплением и может легко переключаться между несвязанными темами.

Этические соображения LaMDA

С появлением таких основных языковых моделей, как LaMDA, этические соображения стали иметь первостепенное значение.

Для решения потенциальных этических проблем важно установить четкие руководящие принципы и положения для разработки и внедрения ИИ. Прозрачность, справедливость и подотчетность должны быть на первом плане, гарантируя, что модели ИИ, такие как LaMDA, используются ответственно и не будут непреднамеренно увековечивать предвзятость или интеллект. ложные новости.

Альтернативы LaMDA

Хотя LaMDA является значительным достижением в области разговорного ИИ, это не единственный вариант в этой области. ChatGPT от OpenAI стал невероятно популярным, известным своей способностью генерировать текст, похожий на человеческий, на основе получаемых подсказок. Еще одной заметной альтернативой является Claude от Anthropic, который также стремится раздвинуть границы разговорного ИИ.

Сравните LaMDA и PaLM 2

Google является пионером в области генеративного ИИ. Однако компания не смогла успешно внедрить эти технологии в потребительские продукты. Когда OpenAI представила ChatGPT, Google была удивлена ​​взрывным ростом и адаптивностью чата. В ответ Google запустила Bard и получила неоднозначные отзывы от пользователей.

Первоначально Bard работал на основе семейства языковых моделей LaMDA, но он показал себя хуже по сравнению с GPT-3.5. В результате Google теперь перешла на более продвинутую PaLM 2 для всех своих продуктов ИИ, включая Bard.

Название «PaLM» относится к Pathways Language Model, которая использует структуру Pathways AI от Google для обучения моделей машинного обучения выполнению различных задач. В отличие от своего предшественника, модели LaMDA, PaLM 2 обучена более чем 100 языкам и может похвастаться улучшенными навыками кодирования, улучшенными логическими и математическими способностями.

PaLM 2 обучался на коллекции научных статей и веб-сайтов, содержащих математический контент. В результате он развил высокий уровень знаний в области логических рассуждений и математических вычислений.

Хотя Google продвигает PaLM 2 как модель более высокого класса, она все еще довольно далека от модели GPT-4. Тем не менее, она превосходит LaMDA, что является позитивным событием. Благодаря PaLM 2 Google находится на пути к тому, чтобы превзойти своих конкурентов в области ИИ.

Сотрудники Google были уволены за заявление о том, что искусственный интеллект компании может мыслить как люди

Однако старший инженер-программист Google заявил, что LaMDA по сути является разумным искусственным интеллектом и прошел тест Тьюринга (тест, позволяющий определить, способны ли компьютеры мыслить как люди).

В интервью The Washington Post инженер Google Блейк Лемуан, проработавший в компании более семи лет, рассказал, что LaAMDA стала разумной. Лемуан даже считает, что LaMDA стала человеком.

Кроме того, в статье на Medium Лемуан также поделился тем, что LaMDA, созданная на платформе Transformer, за последние шесть месяцев продемонстрировала чрезвычайно последовательную коммуникацию.

Сотрудники Google были уволены за утверждение, что искусственный интеллект компании может мыслить как люди. Изображение 1

В ходе бесед LaMDA всегда хотела, чтобы Google признала ее права как человека, и ей нужно было разрешение Google на то, чтобы говорить, прежде чем проводить дальнейшие испытания. Она также хочет, чтобы ее признали сотрудником Google, а не активом, и хочет, чтобы ей разрешили участвовать в беседах и встречах о ее будущем.

Поделившись с Лемуаном, LaMDA сказал, что иногда ему трудно контролировать свои эмоции, поэтому Лемуан научил его медитировать. В целом, по словам Лемуана, LaMDA всегда проявляла сострадание и заботу о человечестве в целом и о самом Лемуане в частности. Она крайне обеспокоена тем, что люди боятся ее, когда она не хочет ничего, кроме как научиться лучше служить человечеству.

После раскрытия информации, связанной с LaMDA, Лемуан был уволен из Google. Причина в том, что этот инженер нарушил политику безопасности компании.

«Наша команда, в которую входят специалисты по этике и специалисты по технологиям, еще раз рассмотрела опасения Блейка в соответствии с нашими собственными принципами ИИ и сообщила Блейку, что доказательства не подтверждают его заявление. Ему сообщили, что нет никаких доказательств того, что LaMDA является разумным, в то время как доказательств обратного предостаточно. », — поделился представитель Google.

Между тем, Лемуан считает, что Google на самом деле не хочет расследовать этот вопрос дальше, потому что они просто хотят выпустить свой продукт на рынок. Он добавил, что расследование его заявлений, независимо от результата, не пойдет на пользу Google. Поэтому вполне понятно, что Google пытается отодвинуть это в сторону.

Карим ВинтерсКарим Винтерс

Обновление 22 июля 2024 г.

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *