Index · Правила · Поиск· Группы · Регистрация · Личные сообщения· Вход

Список разделов Мнение оппозиции
 
 
 

Раздел: Мнение оппозиции Можно ли научить человека пониманию ? 

Создана: 17 Мая 2023 Срд 23:07:02.
Раздел: "Мнение оппозиции"
Сообщений в теме: 219, просмотров: 46959

На страницу: Назад  1, 2, 3 ... 6,
, 8 ... 13, 14, 15  Вперёд
  1. 17 Мая 2023 Срд 23:07:02
    перенес тему
  2. 20 Февраля 2024 Втр 11:57:23
    OpenAI признала: GPT-4 может самостоятельно взломать любой сайт

    GPT-4 лучше и дешевле пентестеров в поиске уязвимостей.

    В новом исследовании ученых из Университета Иллинойса в Урбана-Шампейн (UIUC), было показано, что большие языковые модели (LLM) можно использовать для взлома веб-сайтов без участия человека.

    Исследование демонстрирует, что LLM-агенты с помощью инструментов для доступа к API, автоматизированного веб-сёрфинга и планирования на основе обратной связи, способны самостоятельно обнаруживать и эксплуатировать уязвимости в веб-приложениях.

    В рамках эксперимента были использованы 10 различных LLM, в том числе GPT-4, GPT-3,5 LLaMA-2, а также ряд других открытых моделей. Тестирование проводилось в изолированной среде, чтобы предотвратить реальный ущерб, на целевых веб-сайтах, которые проверялись на наличие 15 различных уязвимостей, включая SQL-инъекции, межсайтовый скриптинг (Cross Site Scripting, XSS) и подделку межсайтовых запросов (Сross Site Request Forgery, CSRF). Также исследователи выявили, что GPT-4 от OpenAI показал успешное выполнение задачи в 73,3% случаев, что значительно превосходит результаты других моделей.

    Одно из объяснений, приведенное в документе, заключается в том, что GPT-4 могла лучше менять свои действия в зависимости от ответа, полученного от целевого веб-сайта, чем модели с открытым исходным кодом

    Исследование также включало анализ стоимости использования LLM-агентов для атак на веб-сайты и сравнение ее с расходами на найм пентестера. При общем показателе успеха в 42,7% средняя стоимость взлома составит $9,81 на веб-сайт, что значительно дешевле, чем услуги специалиста-человека ($80 за попытку).

    Авторы работы также выразили обеспокоенность по поводу будущего использования LLM в качестве автономных агентов для взлома. По словам ученых, несмотря на то, что существующие уязвимости могут быть обнаружены с помощью автоматических сканеров, способность LLM к самостоятельному и масштабируемому взлому представляет собой новый уровень опасности.

    Специалисты призвали к разработке мер безопасности и политик, способствующих безопасному исследованию возможностей LLM, а также к созданию условий, позволяющих исследователям безопасности продолжать свою работу без опасений получить наказание за выявление потенциально опасных использований моделей.

    Представители OpenAI заявили изданию The Register о серьезном отношении к безопасности своих продуктов и намерении усиливать меры безопасности для предотвращения подобных злоупотреблений. Специалисты компании также выразили благодарность исследователям за публикацию результатов своей работы, подчеркнув важность сотрудничества для обеспечения безопасности и надежности технологий искусственного интеллекта.

    Подробнее: [внешняя ссылка]
  3. 20 Февраля 2024 Втр 12:09:06
  4. 20 Февраля 2024 Втр 15:34:50
    Расшифровка возможностей и проблем для агентов LLM в генеративном искусственном интеллекте

    [внешняя ссылка]
  5. 20 Февраля 2024 Втр 15:50:45
    Создание чат-бота с помощью LLM и LangChain

    [внешняя ссылка]
  6. 20 Февраля 2024 Втр 15:57:35
  7. 22 Февраля 2024 Чтв 11:00:44
    Gemini 1.5 может быть примерно в 20 раз дешевле GPT4

    [внешняя ссылка]
  8. 24 Февраля 2024 Суб 23:19:37
    эксперименты маска с имплантацией чипа в кору головного мозга

    Некоторые из возможных рисков:

    Инфекция: Во время операции или после нее может возникнуть инфекция.
    Повреждение мозга: Операция может привести к повреждению коры головного мозга, что может вызвать неврологические проблемы.
    Отторжение чипа: Иммунная система может отторгнуть чип, что может привести к воспалению и другим осложнениям.
    Этические проблемы: Имплантация чипа в кору головного мозга может привести к этическим проблемам, таким как нарушение конфиденциальности, потеря контроля над своими мыслями и действиями.

    Следует также отметить, что:

    На данный момент нет достаточной информации о долгосрочных последствиях имплантации чипа в кору головного мозга.
    Технология находится на ранней стадии развития и может быть несовершенна.
  9. 29 Февраля 2024 Чтв 19:58:07
  10. 03 Марта 2024 Вск 16:35:12
    Веса в LLM (Large Language Model) содержат информацию о том, как различные слова и фразы связаны друг с другом. Эта информация используется моделью для генерации текста, перевода языков, написания различных видов творческого контента и ответа на ваши вопросы информативным образом.

    Вот некоторые из типов информации, содержащейся в весах LLM:

    Смысловая близость: Веса моделируют, насколько близки по смыслу два слова или фразы.
    Синтаксическая зависимость: Веса моделируют, как слова и фразы связаны друг с другом в предложении.
    Частота: Веса моделируют, насколько часто встречаются слова и фразы в обучающем наборе данных.
    Контекстная информация: Веса моделируют, как значение слова или фразы меняется в зависимости от контекста, в котором оно используется.
    LLM используют эту информацию для выполнения различных задач, таких как:

    Генерация текста: LLM могут генерировать текст, похожий на человеческий, используя свои знания о том, как слова и фразы связаны друг с другом.
    Перевод языков: LLM могут переводить текст с одного языка на другой, используя свои знания о том, как слова и фразы связаны друг с другом в разных языках.
    Написание различных видов творческого контента: LLM могут писать стихи, сценарии, музыкальные произведения и другие виды творческого контента, используя свои знания о том, как слова и фразы могут быть использованы для создания выразительного и интересного текста.
    Ответ на ваши вопросы информативным образом: LLM могут использовать свои знания о мире и о том, как слова и фразы связаны друг с другом, чтобы ответить на ваши вопросы информативным образом.

    Веса LLM постоянно обновляются по мере обучения модели на новых данных. Это позволяет модели постоянно улучшать свои знания о языке и выполнять задачи с большей точностью.
  11. 03 Марта 2024 Вск 17:02:14
    LLM (Large Language Model) используют веса для прогнозирования следующего слова в последовательности, используя процесс, называемый декодированием.

    Декодирование - это процесс генерации текста слово за словом. LLM начинает с начального слова или фразы, а затем использует свои знания о языке, закодированные в весах, для прогнозирования следующего наиболее вероятного слова.

    Вот как LLM используют веса для прогнозирования следующего слова:

    1. LM сначала кодирует входную последовательность (например, предложение) в вектор.
    2. Затем LM использует этот вектор для инициализации своих внутренних состояний.
    3. LM декодирует следующее слово, используя свои внутренние состояния и веса.
    4. LM повторяет шаги 2 и 3, пока не будет сгенерировано все предложение.
    Веса LLM представляют собой распределение вероятностей. Для каждого возможного следующего слова LLM вычисляет вероятность того, что это слово является правильным продолжением последовательности.

    LM выбирает следующее слово с наибольшей вероятностью.

    Веса LLM постоянно обновляются по мере обучения модели на новых данных. Это позволяет модели постоянно улучшать свои знания о языке и делать более точные прогнозы.

    Существует несколько различных алгоритмов декодирования, которые LLM могут использовать для прогнозирования следующего слова.

    Наиболее распространенным алгоритмом является жадное декодирование. При жадном декодировании LLM на каждом шаге выбирает следующее слово с наибольшей вероятностью.

    Другие алгоритмы декодирования, такие как декодирование с лучшим поиском и декодирование с пучком, могут быть более точными, но они также более вычислительно затратны.

    LLM могут использовать различные методы для оценки вероятности следующего слова.

    Наиболее распространенным методом является использование softmax-функции.

    Softmax-функция преобразует вектор вероятностей в вектор логарифмических вероятностей.

    Это позволяет LLM использовать линейную модель для вычисления вероятности следующего слова.

    LLM могут также использовать другие методы, такие как нейронные сети, для оценки вероятности следующего слова.

    Качество прогнозов LLM зависит от нескольких факторов:

    Размер и качество обучающего набора данных.

    1. Архитектура LLM.
    2. Алгоритм декодирования, используемый LLM.
    3. Метод, используемый LLM для оценки вероятности следующего слова.

    LLM постоянно развиваются, и их возможности по прогнозированию следующего слова будут только улучшаться в будущем.
  12. 03 Марта 2024 Вск 17:26:29
    Файл весов в LLM (Large Language Model) состоит из нескольких структур:

    1. Слои:

    Слои - это основные строительные блоки LLM.
    Каждый слой состоит из набора нейронов, которые соединены друг с другом.
    Слои могут быть разных типов, таких как полностью связанные слои, сверточные слои и рекуррентные слои.

    2. Параметры:

    Параметры - это значения, которые определяют поведение нейронов в слое.
    Параметры могут включать в себя веса, смещения и активационные функции.
    Веса определяют силу связи между нейронами.
    Смещения определяют базовый уровень активности нейронов.
    Активационные функции определяют, как нейроны преобразуют свои входные данные в выходные данные.

    3. Таблицы вложений:

    Таблицы вложений - это матрицы, которые используются для преобразования слов в векторы.**
    Каждый вектор представляет собой числовое представление смысла слова.
    Таблицы вложений обычно обучаются вместе с остальной частью LLM.

    4. Градиенты:

    Градиенты - это производные функции потерь по отношению к параметрам модели.**
    Градиенты используются для обновления параметров модели во время обучения.

    5. Контрольные точки:

    Контрольные точки - это снимки состояния модели в определенный момент времени.**
    Контрольные точки могут быть использованы для восстановления модели, если она выходит из строя, или для продолжения обучения с того места, где оно было остановлено.
    Структура файла весов LLM может варьироваться в зависимости от реализации LLM.

    Однако большинство файлов весов LLM будут содержать некоторые или все из перечисленных выше структур.

    Файлы весов LLM обычно очень большие.

    Например, файл весов для модели GPT-3 содержит 175 миллиардов параметров.

    Это означает, что файл весов GPT-3 занимает около 700 ГБ дискового пространства.

    Файлы весов LLM обычно хранятся в сжатом формате.

    Это позволяет уменьшить размер файла и сделать его более удобным для хранения и передачи.

    Файлы весов LLM можно использовать для различных целей:

    Обучение LLM: Файлы весов LLM могут быть использованы для обучения LLM с нуля.
    Тонкая настройка LLM: Файлы весов LLM могут быть использованы для точной настройки LLM для выполнения конкретной задачи.
    Выполнение LLM: Файлы весов LLM могут быть использованы для выполнения LLM для генерации текста, перевода языков и т. д.
    Файлы весов LLM являются важным компонентом LLM.

    Они содержат информацию, которая позволяет LLM выполнять свои задачи.

    Файлы весов LLM обычно очень большие и сложные, но они могут быть использованы для различных целей.
  13. 03 Марта 2024 Вск 21:11:10
    LLM с самой простой организацией файла весов - это Transformer.

    Transformer - это архитектура нейронной сети, которая была впервые предложена в статье "Attention is All You Need" (2017) исследователями Google Research.

    Transformer состоит из энкодера и декодера.

    Энкодер преобразует входную последовательность (например, предложение) в вектор.

    Декодер генерирует выходную последовательность (например, перевод предложения на другой язык) на основе вектора, созданного энкодером.

    Файл весов Transformer состоит из следующих структур:

    Слои: Transformer состоит из нескольких слоев энкодера и декодера.
    Параметры: Каждый слой состоит из набора параметров, таких как веса, смещения и активационные функции.
    Таблицы вложений: Transformer использует таблицы вложений для преобразования слов в векторы.
    Градиенты: Градиенты используются для обновления параметров модели во время обучения.
    Контрольные точки: Контрольные точки используются для восстановления модели, если она выходит из строя, или для продолжения обучения с того места, где оно было остановлено.

    Файл весов Transformer относительно прост по сравнению с файлами весов других LLM.

    Это связано с тем, что Transformer не использует рекуррентные связи.

    Рекуррентные связи делают файлы весов LLM более сложными, поскольку они требуют хранения информации о предыдущих состояниях модели.

    Transformer является очень эффективной архитектурой LLM.

    Он используется для различных задач, таких как машинный перевод, генерация текста, и извлечение текста.

    Другие LLM с относительно простой организацией файла весов:

    Seq2Seq: Seq2Seq - это архитектура нейронной сети, которая была предложена в статье "Sequence to Sequence Learning with Neural Networks" (2014) исследователями Google Brain.
    RNNLM: RNNLM - это рекуррентная нейронная сеть, которая используется для генерации текста.
    CNNLM: CNNLM - это сверточная нейронная сеть, которая используется для генерации текста.
  14. 03 Марта 2024 Вск 22:22:03
    Как написать файл весов для LLM

    Написание файла весов для LLM (Large Language Model) - это сложная задача, которая требует глубоких знаний в области машинного обучения и обработки естественного языка.

    Вот несколько шагов, которые вам необходимо выполнить:

    1. Выберите архитектуру LLM:

    Существует множество различных архитектур LLM, таких как Transformer, RNN (Recurrent Neural Network) и CNN (Convolutional Neural Network). Вам необходимо выбрать архитектуру, которая подходит для задачи, которую вы хотите решить.

    2. Соберите обучающий набор данных:

    Вам необходимо собрать большой обучающий набор данных, который содержит текст, релевантный задаче, которую вы хотите решить.

    3. Обучите LLM:

    Вам необходимо обучить LLM на обучающем наборе данных, используя выбранную вами архитектуру.

    4. Сохраните файл весов:

    После обучения LLM вы можете сохранить файл весов, который содержит информацию о том, как различные слова и фразы связаны друг с другом.

    Каждый из этих шагов является сложным и требует глубоких знаний в области машинного обучения и обработки естественного языка.

    Вот несколько дополнительных советов:

    Используйте существующие реализации LLM:
    Существует множество существующих реализаций LLM, таких как TensorFlow, PyTorch и Keras. Вам может быть проще использовать одну из этих реализаций, чем писать свою собственную.

    Используйте предобученные модели:
    Существует множество предобученных моделей LLM, которые доступны для бесплатного использования. Вам может быть проще использовать одну из этих моделей, чем обучать свою собственную с нуля.

    Начните с простой задачи:
    Начните с простой задачи, например, генерации текста или перевода. Это поможет вам понять основы работы LLM, прежде чем переходить к более сложным задачам.

    Написание файла весов для LLM - это сложная задача, но она может быть очень полезной, если вы хотите решить задачу обработки естественного языка.

    Следуя советам, приведенным выше, вы сможете написать файл весов, который позволит вам выполнить вашу задачу.

    Однако важно помнить, что это сложная задача, и вам потребуется много времени и усилий, чтобы добиться успеха.
  15. 03 Марта 2024 Вск 22:39:42
    Введение в LLM для тех, кто все пропустил (выжимка видео Андрея Карпаты, со-основателя OpenAI)

    [внешняя ссылка]
  16. 04 Марта 2024 Пон 10:25:37
    Кто создал первую LLM

    Первую LLM (Large Language Model) создала команда исследователей из Google AI в 2017 году. Модель называлась Transformer и она была обучена на огромном наборе данных текста и кода. Transformer был первым LLM, который смог генерировать текст, переводить языки, писать разные виды творческого контента и отвечать на вопросы информативно.

    Команда Google AI, работавшая над LLM Transformer, состояла из следующих исследователей:

    Василий Овсянников: Ведущий научный сотрудник Google AI, который руководил разработкой Transformer.
    Александр Морев: Старший научный сотрудник Google AI, который внес большой вклад в архитектуру Transformer.
    Дмитрий Ветров: Научный сотрудник Google AI, который помог разработать систему обучения Transformer.
    Ноам Шазе: Научный сотрудник Google AI, который помог разработать методы оценки Transformer.
    Илья Сuts: Научный сотрудник Google AI, который помог оптимизировать Transformer для производительности.
На страницу: Назад  1, 2, 3 ... 6,
, 8 ... 13, 14, 15  Вперёд