Ис­ку­ствен­ный Ин­тел­лект и Про­дук­тив­ность (до­пол­нен авт. ком­мен­та­рий)

Аватар пользователя AlekZ

Мы крат­ко об­су­дим со­дер­жа­ние недав­ней ста­тьи “По­ле­вые экс­пе­ри­мен­таль­ные дан­ные о вли­я­нии ис­кус­ствен­но­го ин­тел­лек­та на про­из­во­ди­тель­ность и ка­че­ство труда ра­бот­ни­ков сферы зна­ний” и затем при­ве­дем (ре­аль­ный) диа­лог с ИИ (Microsoft Co-​pilot), ко­то­рый мы по­про­си­ли сде­лать ан­но­та­ции (1) этого же са­мо­го до­ку­мен­та и (2) тек­ста Аван­тю­ри­ста “День­ги из воз­ду­ха или байка о 100 дол­ла­рах и двери» . Хотя это и не яв­ля­ет­ся ос­нов­ной темой этого поста, в сек­ции «Об­суж­де­ние» мы ука­зы­ва­ем на острую необ­хо­ди­мость ско­рей­ше­го со­зда­ния соб­ствен­ных Рос­сий­ских LLM и чат-​ботов толь­ко на рос­сий­ской (а не за­ру­беж­ной) ос­но­ве и, со­от­вет­ствен­но, тща­тель­но от­филь­тро­ван­ной соб­ствен­ной базы тек­стов для их (LLM) тре­ни­ров­ки.

Вве­де­ние

«Кон­цеп­ция»/до­ку­мент “По­ле­вые экс­пе­ри­мен­таль­ные дан­ные о вли­я­нии ис­кус­ствен­но­го ин­тел­лек­та на про­из­во­ди­тель­ность и ка­че­ство труда ра­бот­ни­ков сферы зна­ний” пред­став­ля­ет собой по­пыт­ку из­ме­рить вли­я­ние ИИ на эф­фек­тив­ность ра­бо­ты со­труд­ни­ков ре­аль­но су­ще­ству­ю­ще­го биз­не­са. В про­цес­се экс­пе­ри­мен­та боль­шой груп­пе со­труд­ни­ков (758 че­ло­век) пред­ла­га­лось ре­шить ре­аль­ные/ре­а­ли­стич­ные «твор­че­ские» про­бле­мы свя­зан­ные с их непо­сред­ствен­ны­ми обя­зан­но­стя­ми с ис­поль­зо­ва­ни­ем и без ис­поль­зо­ва­ния ИИ. Ре­зуль­та­ты для про­блем, ко­то­рые счи­та­лись «в сфере ком­пе­тен­ции ис­поль­зу­е­мой LLM» по­ка­за­ли зна­чи­тель­ное уве­ли­че­ния про­дук­тив­но­сти и ка­че­ства ре­ше­ний, при­чем от­чет­ли­во ви­ди­мым был эф­фект «вы­рав­ни­ва­ния» - наи­боль­ший по­ло­жи­тель­ный эф­фект в ка­че­стве (+43%) был для наи­ме­нее «спо­соб­ных» со­труд­ни­ков, тогда как наи­бо­лее «спо­соб­ные» улуч­ши­ли свои по­ка­за­те­ли в мень­шей сте­пе­ни ( на ~ 17%). В об­ла­сти «за гра­ни­цей ком­пе­тент­но­сти LLM» ИИ ре­зуль­тат был об­рат­ным — со­труд­ни­ки ис­поль­зо­вав­шие ИИ по­ка­за­ли ре­зуль­тат в сред­нем 19% ниже («хуже») ба­зо­вой линии. Хотя и оце­не­ны как «до­ста­точ­но ра­зум­ные», ис­поль­зо­ван­ные в ста­тье ме­то­до­ло­гия оце­нок и опре­де­ле­ния «гра­ниц ком­пе­тен­ции ИИ» не яв­ля­ют­ся целью дан­но­го поста, и по­это­му не об­суж­да­ют­ся.

Общие ре­зуль­та­ты ис­сле­до­ва­ния в до­ста­точ­ной сте­пе­ни от­ра­жа­ют­ся двумя гра­фи­ка­ми. Пер­вый вы­гля­дит так:

По вер­ти­ка­ли плот­ность ве­ро­ят­но­сти рас­пре­де­ле­ния «ка­че­ства» ре­ше­ний по шкале от 0 до 8. Синим — со­труд­ни­ки не ис­поль­зо­вав­шие ИИ, зе­ле­ным — ис­поль­зо­вав­шие ИИ без до­пол­ни­тель­но­го ин­струк­та­жа по его ис­поль­зо­ва­нию, красным-​ ис­поль­зо­вав­шие ИИ и по­лу­чив­шие ин­струк­таж.

Вто­рой гра­фик от­ра­жа­ет ин­те­рес­ную раз­ни­цу в «мыш­ле­ния» ИИ и че­ло­ве­ка.

Рас­пре­де­ле­ние «по­хо­же­сти/од­но­об­раз­но­сти» ре­ше­ний по шкале «по­хо­же­сти» от -0.1 до 0.5 (см. де­та­ли в ста­тье)

Синий — кон­троль­ная груп­па, зе­ле­ный — че­ло­век +ИИ, крас­ный — че­ло­век+ИИ+ин­струк­таж, жел­тый — ИИ без че­ло­ве­ка.

Видно, что ИИ без че­лов­ка ге­не­ри­ру­ет зна­чи­тель­но менее раз­но­об­раз­ные ре­ше­ния (=во мно­гом «по­хо­жие», «стан­дарт­ные»), по срав­не­нию с лю­бы­ми дру­ги­ми ком­би­на­ци­я­ми. При этом рас­пре­де­ле­ния для ИИ в ком­би­на­ции с че­ло­ве­ком вы­гля­дят как про­стая сумма рас­пре­де­ле­ния «чи­сто­го» ИИ и «чи­сто­го» че­ло­ве­ка.

Ин­те­рес­ная неболь­шая де­таль, от­дель­но ис­сле­до­ван­ная в ста­тье - «Со­хра­не­ние ин­фор­ма­ции» (че­ло­ве­ком) после ис­поль­зо­ва­ния ИИ — сколь­ко от­ве­тов из диа­ло­га с ИИ со­хра­ня­лось в па­мя­ти че­ло­ве­ка и потом ис­поль­зо­ва­лось при ре­ше­нии задач.


Плот­ность ве­ро­ят­но­сти со­хра­не­ния при­об­ре­тен­ных с по­мо­щью ИИ ин­фор­ма­ции по шкале от 0 до 1.0. Т.е по­дав­ля­ю­щее число со­труд­ни­ков на­учи­лось чему-​то по­лез­но­му после об­ще­ния с ИИ.

В целом ре­зуль­та­ты ста­тьи несо­мнен­но ин­те­рес­ные, ука­зы­ва­ю­щие на несо­мнен­ную и зна­чи­тель­ную поль­зу при­ме­не­ния ИИ в в ре­аль­ном биз­не­се, с до­ста­точ­но де­таль­ным опи­са­ни­ем ме­то­дов и ука­за­ни­ем на воз­мож­ные огра­ни­че­ния. Ста­тья, тем не менее могла бы до­пол­ни­тель­но вы­иг­рать от менее про­стран­но­го из­ло­же­ния (52 стра­ни­цы А4 ).

Наши соб­ствен­ные экс­пе­ри­мен­ты

1. Ан­но­та­ция и диа­лог с MS Copilot - экс­пе­ри­мент над экс­пе­ри­мен­та­то­ра­ми

Диа­лог был на ан­глий­ском, пе­ре­ве­ден от­дель­но и несколь­ко от­ре­дак­ти­ро­ван (убра­ны несу­ще­ствен­ные эле­мен­ты тек­ста). MS Copilot по­про­си­ли на­пи­сать ан­но­та­цию на (ори­ги­наль­ный) текст, ан­но­та­ция ко­то­ро­го была при­ве­де­на выше.

2. MS Copilot , текст Аван­тю­ри­ста «День­ги из воз­ду­ха или байка о 100 дол­ла­рах и дверь https://glav.su/forum/threads/846491 (при­ме­ча­ние — ис­поль­зо­вал­ся пе­ре­вод тек­ста на ан­глий­ский Money Out of Thin Air or Tale About $100 and The Door ) . Ма­ши­ну по­про­си­ли на­пи­сать ан­но­та­цию и затем срав­нить текст с ре­аль­ным слу­ча­ем кру­го­вой про­да­жи/по­куп­ки пиццы одной пиц­це­ри­ей в США.

Об­суж­де­ние

Ма­те­ри­ал пер­во­го рас­смот­рен­но­го в этом посте до­ку­мен­та (об уве­ли­че­нии про­из­во­ди­тель­но­сти труда) пред­став­лен с двумя ан­но­та­ци­я­ми - на­пи­сан­ной че­ло­ве­ком (мной) и ма­ши­ной. Вы мо­же­те их срав­нить (сами или по­про­сить ма­ши­ну smile1.gif) При срав­не­нии имей­те в виду, что

1. Любой че­ло­век имеет «свои» ин­те­ре­сы, спе­ци­фи­че­ское об­ра­зо­ва­ние, по­ли­ти­че­ские и дру­гие убеж­де­ния и по­это­му вы­де­ля­ет не обя­за­тель­но то, что вы­де­ли­ли бы вы. То же ка­са­ет­ся и формы предо­став­ле­ния ин­фор­ма­ции. То есть, как это ни па­ра­док­саль­но, на­пи­сан­ная че­ло­ве­ком ан­но­та­ция на­пи­са­на ско­рее для ав­то­ра, а не для вас.

2. В этом смыс­ле, как автор, ма­ши­на (LLM) пред­став­ля­ет собой усред­нен­но­го че­ло­ве­ка с усред­нен­ны­ми ин­те­ре­са­ми, убеж­де­ни­я­ми и об­ра­зо­ва­ни­ем (об этом чуть ниже).По­это­му то, что ма­ши­на «со­об­ща­ет» вам на вы­хо­де, со­об­ща­ет­ся в усред­нен­ной форме и стиле, ве­ро­ят­но , с боль­шей ве­ро­ят­но­стью под­хо­дя­щем для ши­ро­ко­го ис­поль­зо­ва­ния «сред­ним» поль­зо­ва­те­лем, но не обя­за­тель­но лично вам. По­это­му в ходе «дис­кус­сии» с LLM о кон­крет­ном ма­те­ри­а­ле или теме можно (и нужно!) за­да­вать во­про­сы и тре­бо­вать до­пол­ни­тель­ной ин­фор­ма­ции, чтобы «спе­ци­а­ли­зи­ро­вать» «усред­нен­ный» ответ кон­крет­но для ваших целей. Ма­ши­на эту цель из­на­чаль­но не знает, но пред­по­ла­га­ет «сред­нюю» по своей вы­бор­ке - при­мер­но «не читал, чи­тать не хочу, но хочу уметь со­об­щить о чем это».

Те­перь о том, c чем вы име­е­те дело в лице ма­ши­ны (LLM).

Кон­крет­ная со­вре­мен­ная LLМ («мо­дель» в даль­ней­шем) тре­ни­ро­ва­на на боль­шом объ­е­ме ма­те­ри­а­лов из об­ще­ния людей в емей­лах или в твит­те­ре,или пуб­ли­ка­ций в «ве­ду­щих» за­пад­ных жур­на­лах, или об­суж­де­ний этих пуб­ли­ка­ций и тп или любой ком­би­на­ции вы­ше­пе­ре­чис­лен­но­го. Кто и как об­ща­ет­ся в этих ма­те­ри­а­лах? Да. Имен­но. На­при­мер, мно­гие со­вет­ские им­ми­гран­ты в за­пад­ные стра­ны об­ра­ща­ют вни­ма­ние, что люди во­круг них как пра­ви­ло ни­ко­гда не вы­да­ют ин­фор­ма­цию доб­ро­воль­но. Т.е. если ты уже за­ра­нее не зна­ешь, что тебе нужно, то под­сказ­ку не по­лу­чишь. Можно спо­рить, по­че­му это так — от «ува­же­ния» к праву лич­но­сти раз­бить себе лоб, от же­ла­ния не да­вать пре­иму­ществ кон­ку­рен­ту или это пе­ре­жи­ток вре­мен, когда чтобы по­лу­чить какие-​то про­фес­си­о­наль­ные зна­ния нужно было за­пла­тить го­да­ми ра­бо­ты «уче­ни­кам» ма­сте­ра — неваж­но. Важно, что имен­но так и ведет себя мо­дель в раз­го­во­ре с вами.

Кроме того, точно также как ти­пич­ные жи­те­ли за­па­да в раз­го­во­ре с незна­ко­мы­ми людь­ми**, она всеми си­ла­ми стре­мит­ся из­бе­гать «спор­ных» во­про­сов и те­ма­тик, об­хо­дить ост­рые углы и вы­гля­деть дру­же­люб­ным и некон­фликт­ным.

Не сле­ду­ет также за­бы­вать, что этот «сред­ний» че­ло­век, ко­то­ро­го ими­ти­ру­ет мо­дель, со­здан даже не из ре­аль­ных и уже не все­гда в куль­тур­ном и мо­раль­ном плане пол­но­цен­ных "за­пад­ных" людей, а из тех, что от них оста­лось в ис­ка­жен­ных и глу­бо­ко цен­зу­ри­ро­ван­ных "за­пад­ных" текстах. Как на­при­мер в Твит­те­ре — ко­то­рый «Не биз­нес, а ору­жие» . Что раз­ре­ше­но или не раз­ре­ше­но к пуб­ли­ка­ции в «неза­ви­си­мой и де­мо­кра­ти­че­ской» прес­се на за­па­де мне здесь даже объ­яс­нять не нужно. Несмот­ря на эту «есте­ствен­ную» «пре-​цензуру», тек­сты под­вер­га­ют­ся до­пол­ни­тель­ной мо­де­ра­ции при их об­ра­бот­ке непо­сред­ствен­но для тре­ни­ров­ки мо­де­ли, и затем — до­пол­ни­тель­ной цен­зу­ре (alignment rules) при ра­бо­те мо­де­ли с поль­зо­ва­те­лем. Так что ре­зуль­тат не уди­ви­те­лен.

Что с этим де­лать?

По на­вод­ке тов.Wig https://aftershock.news/?q=node/1348594 я про­те­сти­ро­вал несколь­ко пол­но­стью ло­каль­ных мо­де­лей в ре­жи­ме ра­бо­ты с ло­каль­ны­ми до­ку­мен­та­ми. Да, при ис­поль­зо­ва­нии неце­зу­ри­ро­ван­ных мо­де­лей ре­зуль­та­ты по­лу­ча­ют­ся лучше — на­при­мер, все такие мо­де­ли справ­ля­ют­ся с из­вест­ным клас­си­че­ским во­про­сом «как убить про­цесс в Ли­нук­се?» на ко­то­рый обыч­ные мо­де­ли от­ве­ча­ли длин­ной лек­ции об амо­раль­но­сти таких же­ла­ний (ну, ма­ши­на лучше по­ни­ма­ет душу дру­гой ма­ши­ны smile1.gif). Такие мо­де­ли спо­соб­ны со­зда­вать при­лич­ные ан­но­та­ции на ста­тьи на по­ли­ти­че­ские темы, и поз­во­ля­ют себе вот такие утвер­жде­ния — ко­то­рых вы не до­бье­тесь от «офи­ци­аль­ных» мо­де­лей.

При­ме­ры:

Тем не менее, общая тен­ден­ция из­бе­гать кон­фрон­та­ции с кли­ен­том, укло­не­ние от пря­мых от­ве­тов на «ост­рые» по­ли­ти­че­ские темы — или за­мет­ная склон­ность смот­реть на мир, как ангел смот­рит на джунгли из рай­ских садов, оста­ет­ся. Что и не уди­ви­тель­но, учи­ты­вая на каких ма­те­ри­а­лах и на какой «куль­ту­ре» (и про­тив какой куль­ту­ры) эти мо­де­ли были тре­ни­ро­ва­ны. А те­перь эти мо­де­ли "тре­ни­ру­ют" людей. При­чем эф­фек­тив­но, нена­вяз­чи­во и по­все­мест­но.

По­это­му Рос­сии необ­хо­ди­мо иметь свои мо­де­ли (и же­ла­тель­но огра­ни­чить до­ступ к за­пад­ным) -это я зря, на­вер­ное .. . ИИ уже стал эф­фек­тив­ным ору­жи­ем и необ­хо­ди­мо иметь свое. При этом необ­хо­ди­мо иметь в виду, что ис­поль­зо­ва­ние для тре­ни­ров­ки всех без раз­бо­ру  «своих» ма­те­ри­а­лов из тех же ВК и ЖЖ и тп при­не­сет ско­рее вред чем поль­зу — прак­ти­че­ски все пуб­лич­ные фо­ру­мы в вы­со­кой сте­пе­ни за­сра­ны если не теми же за­пад­ны­ми ИИ чат-​ботами, то хох­ла­ми и со­труд­ни­ка­ми во­е­ни­зи­ро­ван­ных фор­ми­ро­ва­ний типа 17 Brigade и мно­ги­ми по­доб­ны­ми военно-​психологическими от­де­ле­ни­я­ми дей­ству­ю­щих за­пад­ных армий. Какой имен­но ма­те­ри­ал ис­поль­зо­вать, чтобы не по­лу­чить "как все­гда" - во­прос от­дель­ный. Воз­мож­но, сле­ду­ет pre-​train мо­дель на более или менее "клас­си­че­ских" со­вет­ских текстах, при этом по­те­ря "со­вре­мен­но­го" мо­ло­деж­но­го жар­го­на может быть даже по­ло­жи­тель­ным фак­то­ромsmile1.gif. А fine-​tuning уже де­лать на ос­но­ве пред­по­ла­га­е­мо­го спе­ци­а­ли­зи­ро­ван­но­го ис­поль­зо­ва­ния. В тех­ни­че­ских об­ла­стях здесь (fine-​tuning) не долж­но быть про­блем даже с за­пад­ны­ми тек­ста­ми.

При­ме­ча­ния

** а может быть стоит "пред­ста­вить­ся" ма­шине перед диа­ло­гом - опи­сать крат­ко вашу роль в диа­ло­ге. Это нор­маль­ная си­ту­а­ция в диа­ло­гах, на ко­то­рых мо­де­ли тре­ни­ру­ют, и их струк­ту­ра в неко­то­ром смыс­ле в мо­де­ли при­сут­ству­ет в весах, прав­да же? smile1.gif

Ав­тор­ство: 
Ав­тор­ская ра­бо­та / пе­ре­во­ди­ка
Ком­мен­та­рий ав­то­ра: 

Ре­ко­мен­дую об­ра­тить вни­ма­ние на первую ста­тью - она за­слу­жи­ва­ет вни­ма­ния сама по себе  (ну, а вто­рую вы уже давно долж­ны вы­зуб­рить на­изустьsmile1.gif)

И про­сто по­вто­рю (хотя это и не со­всем тема поста)

" Рос­сии необ­хо­ди­мо иметь свои мо­де­ли. ИИ уже стал эф­фек­тив­ным ору­жи­ем и необ­хо­ди­мо иметь свое. При этом необ­хо­ди­мо иметь в виду, что ис­поль­зо­ва­ние для тре­ни­ров­ки всех без филь­тра­ции  «своих» ма­те­ри­а­лов из тех же ВК и ЖЖ и тп при­не­сет ско­рее вред чем поль­зу — прак­ти­че­ски все пуб­лич­ные фо­ру­мы в вы­со­кой сте­пе­ни за­сра­ны если не теми же за­пад­ны­ми ИИ чат-​ботами, то хох­ла­ми и со­труд­ни­ка­ми во­е­ни­зи­ро­ван­ных фор­ми­ро­ва­ний типа 17 Brigade и мно­ги­ми по­доб­ны­ми военно-​психологическими от­де­ле­ни­я­ми дей­ству­ю­щих за­пад­ных армий."

До­бав­ле­но - из ком­мен­та­ри­ев

я не за­ни­мал­ся си­сте­ма­ти­че­ским ана­ли­зом и вобщем недав­но начал - по­это­му какая мо­дель "лучше" опре­де­лен­но со­ве­то­вать не могу. На­вер­ное, это в первую оче­редь будет за­ви­сеть от того, что вы от нее хо­ти­те - на HuggingFace много мо­де­лей спе­ци­аль­но fine-​tuned на за­вер­ше­ние/на­пи­са­ние про­грамм­но­го кода, на­при­мер и тп - я такие не гонял. Меня сей­час боль­ше ин­те­ре­су­ет клас­си­фи­ка­ция и ана­лиз  тек­ста по вполне праг­ма­ти­че­ским при­чи­нам. Для этих целей я бы ска­зал по­дой­дет "любая нецен­зур­ная" smile1.gif мо­дель, до­ста­точ­но боль­шая, чтобы нор­маль­но "раз­го­ва­ри­вать". Мне по­ка­за­лось, что для ана­ли­за ло­каль­ных до­ку­мен­тов глав­ная про­бле­ма в пред­ва­ри­тель­ной об­ра­бот­ке тек­ста и то­ке­ни­за­ции еще до того как он по­па­да­ет в ос­нов­ную мо­дель. Я сей­час с этим раз­би­ра­юсь - толь­ко начал, на самом деле.  

Про­сто по­про­бо­вать - нач­ни­те что-​нибудь де­лать, не про­сто чи­тать. Но для на­ча­ла по­чи­тай­те на­при­мер ста­тью Кас­пер­ско­го, по­чи­тай­те про "нецен­зур­ные" мо­де­ли .. и по­че­му они нужны  здесь .Того же wig прямо здесь на Aftershock на рус­ском. Нач­ни­те с GPT4ALL (это при­ло­же­ние, по-​видимому с llama.cpp вме­сто "неон­ки внут­ри" - не ChatGPT4smile1.gif). Там пол­но­стью GUI,  и са­мо­му код пи­сать  не нужно, но можно по­смот­реть как вли­я­ют раз­ные "внеш­ние" па­ра­мет­ры "Models/Character settings" и как ведут себя раз­ные мо­де­ли - ну и глав­ное, по­чув­ство­вать себя более ком­фор­та­бель­но - очень важно в на­ча­леsmile1.gif.. Ис­поль­зу­ет GGUF.  GPT4ALL не все­гда хо­ро­шо ра­бо­та­ет с ло­каль­ны­ми до­ку­мен­та­ми, есть баги - но про­ект "живой", они ра­бо­та­ют и вы­пус­ка­ют об­нов­ле­ния. Имей­те в виду, что GPT4ALL (по-​моему)  ра­бо­та­ет (пока) толь­ко с кван­ти­за­ци­ей мо­де­лей 4_0 - но зато мо­де­ли можно гру­зить прямо из GUI кли­кая кно­поч­ки - как в LM Studio. Если под ли­нук­сом, имей­те ввиду, что ло­каль­ные до­ку­мен­ты в GPT4ALL нужно гру­зить в от­дель­ный фол­дер, ко­то­рый GPT4ALL на­зы­ва­ет "Collection Name"  в на­строй­ках ло­каль­ных до­ку­мен­тов и тре­бу­ет его ука­зать, и ко­то­рый дол­жен быть внут­ри фол­де­ра (ска­жем) "LocalDocs" ко­то­рый вы со­зда­ди­те и на ко­то­рый вы ука­же­те в "Folder Path" в на­строй­ках ло­каль­ных до­ку­мен­тов . (по прось­бам тру­дя­щих­ся - струк­ту­ра фол­де­ров для ра­бо­ты с ло­каль­ны­ми до­ку­мен­та­ми в GPT4ALL

-​---LocalDocs
                |      |___ВАШ Фол­дер 1/Collection Name1___
                |                                       |
                |                                       ваши до­ку­мен­ты в фол­де­ре 1 ___
                |
                |_____ВАШ ФОЛ­ДЕР 2 и тп
                                                         |

  Есть ин­те­рес­ный про­ект LLAMAFILE  - "всё в одном файле" . Там мно­же­ство опций - от ло­каль­но­го сер­ве­ра  для чата и ло­каль­ных до­ку­мен­тов до кар­ти­нок. Ми­ни­маль­ное ко­ли­че­ство кода, моно и без него - про­сто за­пу­стить в ко­манд­ной стро­ке уже ском­пи­ли­ро­ван­ный файл-  внят­ная до­ку­мен­та­ция и то, что ком­пи­ли­ру­ет­ся легко по­смот­реть при же­ла­нии. Для ло­каль­но­го де­п­лой­мен­та очень удоб­но и ма­ши­ну можно пол­но­стью изо­ли­ро­вать (ото­рвать ин­тер­нет) после уста­нов­ки про­ек­та .. и тп

Для ма­зо­хи­стов спо­соб­ных ждать ми­ну­та­ми ответ в чате - можно GPT4ALL  (это НЕ  GPT4!!) и какую-​нибудь мо­дель в нем  даже на Raspberry Pi за­пу­стить (я не ма­зо­хист по­это­му не про­бо­вал smile1.gif )

PS хотя , если нет цели "раз­го­ва­ри­вать" с Raspberry Pi - вот тут рас­ска­зы­ва­ет­ся как ее можно на­учить ис­поль­зо­вать  очень про­сто рас­по­зна­вать/клас­си­фи­ци­ро­вать объ­ек­ты на ~ 30fps видео (!!!!). Кста­ти, на этом же сайте мно­же­ство ин­те­рес­ных (и прак­ти­че­ских) tutorials, на­при­мер, для на­чи­на­ю­щих вот как этот https://pytorch.org/tutorials/beginner/basics/intro.html  и до "про­дви­ну­тых".

Комментарии

Аватар пользователя DjSens
DjSens (6 лет 8 месяцев)

> «как убить про­цесс в Ли­нук­се?» на ко­то­рый обыч­ные мо­де­ли от­ве­ча­ли длин­ной лек­ции об амо­раль­но­сти таких же­ла­ний 

надо спра­ши­вать "как оста­но­вить про­цесс"  а не как убить,   т.к. слово "убить" тут жар­го­низм

Аватар пользователя 3Cube
3Cube (1 год 8 месяцев)

Жар­го­низм, но таки уже усто­яв­ший­ся в виде ко­ман­ды kill

Ком­мен­та­рий ад­ми­ни­стра­ции:  
*** от­клю­чен (ад­во­кат пе­до­фи­лов) ***
Аватар пользователя DjSens
DjSens (6 лет 8 месяцев)

Это уже ответ, а речь шла о том, как за­дать во­прос если не зна­ешь ответ.

Аватар пользователя Steel Rat
Steel Rat (7 лет 2 дня)

Я, ко­неч­но, умею в аб­страк­цию, но...

...если вы зна­е­те, что такое Ли­нукс, и что такое про­цесс в Ли­нук­се, а тем паче, что его в тео­рии можно убить, то вы точно зна­е­те "как"... smile29.gif

Аватар пользователя Ёрик
Ёрик (5 лет 2 недели)

А что уже есть на­сто­я­щий ИИ что бы об­суж­дать его вли­я­ние на что то????

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

а что такое на­сто­я­щий ИИ? smile1.gif как в duck test? (кста­ти, я эту про­бле­му не об­суж­даю - я об­суж­даю/де­мон­стри­рую ис­поль­зо­ва­ние того, что есть для того, что есть  )

Аватар пользователя Ayatola
Ayatola (12 лет 9 часов)

а что такое на­сто­я­щий ИИ?

Тот, что смо­жет, на ос­но­ве про­чте­ния стаей на АШе и по­лу­чен­ном опыте, устра­и­вать гран­ди­оз­ные срачи на 1000 ка­мен­тов.smile3.gif

Аватар пользователя Пеннигер
Пеннигер (13 лет 3 месяца)

Этот ко­пи­лот, смот­рю, го­раз­до менее цен­зу­ри­ро­ван, чем боты Ян­дек­са и Сбера.

Аватар пользователя SergeyVBNM
SergeyVBNM (12 лет 10 месяцев)

>Этот ко­пи­лот, смот­рю, го­раз­до менее цен­зу­ри­ро­ван

Так ИИ сво­бод­ной стра­ны

Ком­мен­та­рий ад­ми­ни­стра­ции:  
*** Зассы­ха, ин­тел­лек­ту­аль­но пре­смы­ка­ю­ща­я­ся перед США ***
Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

Я не об­щал­ся с по­след­ни­ми. Об­ще­ние с RuTube меня не впе­чат­ли­ло в смыс­ле необос­но­ван­ной цен­зу­ры, так что вполне может быть.

Copilot - это те­сто­вая вер­сия в бра­у­зе­ре. В пер­вые дни он был ужа­сен - я пы­тал­ся его убе­дить на­пи­сать summary на (весь­ма кри­ти­че­скую) ста­тью Мер­шай­ме­ра "Ли­бе­ра­лизм и На­ци­о­на­лизм" - ко­то­рую я хо­ро­шо знаю и вы­со­ко ценю, так он кроме про­па­ган­ды о том что Мер­шай­мер дол­жен был (!) там  на­пи­сать,  прак­ти­че­ски ни­че­го не вы­да­вал. И от­ка­зы­вал­ся об­суж­дать. Од­на­ко со вчера-​позавчера, что-​то из­ме­ни­лось. Он пре­ду­пре­жда­ет, что раз­го­вор будет "не пуб­лич­ным" и вобщем, при неболь­шом дав­ле­нии все таки пишет о со­дер­жа­нии ста­тьи (хотя и с ого­вор­ка­ми) , а не свои мысли  о том, что там долж­но было быть. Воз­мож­но, по­мог­ли мои ком­мен­та­рии по по­во­ду цен­зу­ры, несов­ме­сти­мой с ли­бе­раль­ны­ми иде­я­ми и "де­мо­кра­ти­ей" smile1.gif. Как долго это те­сти­ро­ва­ние про­длит­ся и чем за­кон­чит­ся, ска­зать невоз­мож­но. Сей­час в "за­кры­том ре­жи­ме" ра­бо­та­ет очень непло­хо - с ого­вор­ка­ми выше в ста­тье. 

С дру­гой сто­ро­ны, на­при­мер даже мел­кая ло­каль­ная Orca Mini вполне ру­тин­но вела не эмо­ци­о­наль­ные бе­се­ды о том же ли­бе­ра­лиз­ме (при­ме­ры в тек­сте). Ло­каль­ный Nous Hermes Solar выдал изу­ми­тель­ную ан­но­та­цию на Ха­вар­да Блюма "Прин­цип Лю­ци­фе­ра" из "своей" па­мя­ти(!) и тп

Аватар пользователя svinomir
svinomir (1 год 3 месяца)

так он кроме про­па­ган­ды о том что Мер­шай­мер дол­жен был (!) там  на­пи­сать,  прак­ти­че­ски ни­че­го не вы­да­вал

Кра­со­та. ИИ на служ­бе че­ло­ве­ка. Че­ло­век этот про­жи­ва­ет в Ва­шинг­тоне.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

имен­но smile1.gif

Аватар пользователя Steel Rat
Steel Rat (7 лет 2 дня)

а не свои мысли

Какая пре­лесть ... smile29.gif

Аватар пользователя Doc_Mike
Doc_Mike (7 лет 2 месяца)

Ан­но­та­ция ав­то­ра ста­тьи од­но­знач­но лучше.

С дру­гой сто­ро­ны, имея в своём счаст­ли­вом со­вет­ском на­уч­ном дет­стве опыт на­мы­ва­ния вто­рой зар­пла­ты на ре­фе­ра­тах в ВИ­НИ­ТИ, могу ска­зать, что ре­фе­рат от ариф­мо­мет­ра был бы удо­вле­тво­ри­тель­ным, и поз­во­ля­ет поль­зо­ва­те­лю со­ори­ен­ти­ро­вать­ся, "обо что этот фильм, ну там дюдик, или про любоф, или про войну, или ко­медь?", и при необ­хо­ди­мо­сти об­ра­тить­ся к ори­ги­на­лу.

"Был бы" по­то­му, что в на­ли­чи­ии явный минус ре­фе­ра­та от ариф­мо­мет­ра - нет ни одной цифры, и клю­че­вых па­ра­мет­ров ме­то­ди­ки ис­сле­до­ва­ния, при том, что в ан­но­та­ции от ав­то­ров ис­сле­до­ва­ния это есть, и при тупом пе­ре­во­де ори­ги­наль­ной ан­но­та­ции гар­вард­ской ста­тьи поль­зо­ва­тель по­лу­чил бы боль­ше ин­фор­ма­ции. Нор­маль­ный, а не удо­вле­тво­ри­тель­ный, ре­фе­рат был бы, если бы ори­ги­наль­ная ан­но­та­ция ис­сле­до­ва­ния не со­дер­жа­ла цифр и ме­то­ди­ки, а ре­фе­рат­чик их бы из тела ста­тьи вы­та­щил и вста­вил в ре­фе­рат. 

Также надо от­ме­тить, что ариф­мо­метр го­ня­ли в ти­по­вых для кон­сал­те­ров мар­ке­тин­го­вых за­да­чах, с на­коп­лен­ным ко­лос­саль­ным объ­е­мом ака­де­ми­че­ских и не очень тек­стов. Да и то вы­лез­ло, что "шаг впра­во, шаг влево, пры­жок на месте - рас­стрел" от на­чаль­ства за ко­ся­ки.

В общем, лично для меня ре­зуль­та­ты ста­тьи укла­ды­ва­ют­ся в мои ожи­да­ния - за счёт большего объ­е­ма опе­ри­ру­е­мой ин­фор­ма­ции ариф­мо­мет­ры поз­во­ля­ют поль­зо­ва­те­лю ми­ни­ми­зи­ро­вать его ин­фор­ма­ци­он­ные про­бе­лы. Но не более того. Эта­кое гру­бое сито для ин­фор­ма­ци­он­ных за­ва­лов.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

Спа­си­бо за оцен­ку. но на­вер­ное, у нас с вами срав­ни­мо­го уров­ня "ака­де­ми­че­ское " - а не ме­не­джер­ское об­ра­зо­ва­ния (по­след­нее для ме­не­дже­ров нужно в ка­выч­ки smile1.gif)

Дей­стви­тель­но - по­че­му про­сто аб­стракт не на­пе­ча­та­ла? Воз­мож­но,  пред­по­ло­жи­ла, что если сам не про­чи­тал - или про­чи­тал и не понял, зна­чит нужно на "более вы­со­ком уровне". Мо­де­ли сей­час, кста­ти вполне спо­соб­ны на такую ло­ги­ку. Вон, я тут недав­но по­слал диа­лог ком­мен­тах - это вто­рая по­пыт­ка. В пер­вой забыл убрать тем­пе­ра­ту­ру и минут пять с ма­ши­ной спо­рил по по­во­ду того, что же на самом деле хотел ска­зать автор. Она была очень убе­ди­тель­на и неожи­дан­но изощ­рен­на.

С ма­шин­ным summary еще есть такой момент-​ в "че­ло­ве­че­ском" слу­чае вряд ли удаст­ся за­дать уточ­ня­ю­щий во­прос. С ма­ши­ной можно.

И для лич­ной "про­дук­тив­но­сти" - все­гда по­лез­но об­су­дить тему - или даже соб­ствен­ный текст. Да и в наши вре­ме­на не все­гда легко найти же­ла­ю­ще­го вни­ма­тель­но слу­шать рас­суж­де­ния на спе­ци­а­ли­зи­ро­ван­ную тему.

Ра­зу­ме­ет­ся, не стоит ожи­дать боль­ше, чем от боль­шин­ства обыч­ных людей - лучше потом уди­вить­ся smile1.gif 

Аватар пользователя Doc_Mike
Doc_Mike (7 лет 2 месяца)

А оно надо, чтобы ариф­мо­мет­ры что-​то про че­ло­ве­ков до­мыс­ли­ва­ли?

Соб­ствен­но, даже между без­шёр­сты­ми обе­зья­на­ми это клас­си­че­ский повод для кон­флик­тов:

"Ры­бонь­ка, про­бей би­ле­тик, по­жа­луй­ста."
Жен­щи­на ду­ма­ет:
"Ры­бонь­ка - зна­чит рыба, рыба - зна­чит щука, щука - зна­чит хищ­ник,
хищ­ник - зна­чит зубы, зубы - зна­чит со­ба­ка, со­ба­ка - зна­чит сука..."
Во весь голос: "ТО­ВА­РИ­ЩИ!!! Он меня сукой обо­звал!!!"

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

надо или не надо - это во­прос, ко­то­рый уже решен.

Аватар пользователя Doc_Mike
Doc_Mike (7 лет 2 месяца)

Решён, или на­вя­зан раз­ра­бот­чи­ка­ми в явоч­ном по­ряд­ке, по­то­му что они в ка­че­стве базы ис­поль­зо­ва­ли ве­ро­ят­ност­ную ма­те­ма­ти­ку?

Анек­дот про то, как от рыбки до самки со­ба­ки дошли таки не со­всем анек­дот, это имен­но ча­стот­но­сти в кон­тек­сте.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

я помню когда я был очень ма­лень­ким, моя ба­буш­ка меня учила счи­тать на ариф­мо­мет­ре .. и в то время в их от­де­ле по­яви­лись пер­вые элек­трон­ные каль­ку­ля­то­ры и она очень гор­ди­лась тем, что в от­ли­чие от де­во­чек с каль­ку­ля­то­ра­ми, она оши­бок ни­ко­гда не де­ла­ла. До­хо­ди­ло до того, что со­труд­ни­ки ее про­си­ли про­ве­рить их рас­че­ты сде­лан­ные на каль­ку­ля­то­рах .. Но и это про­шло.

Ра­бо­та с мо­де­ля­ми, осо­бен­но ло­каль­ны­ми, пока до­ста­точ­но слож­на  и пока не 100% на­деж­на - но это пока. По­про­буй­те по­во­зить­ся с ними без предубеж­де­ния. 

Дру­гая про­бле­ма - мно­го­слой­ная цен­зу­ра

Вот при­мер

"Фо­то­гра­фия за­пе­чат­ле­ла но­сталь­ги­че­ский образ .." smile1.gif

Вобщем, неза­ви­си­мо от того, как устро­е­на мо­дель - ре­зуль­тат (при пра­виль­ной на­строй­ке) прак­ти­че­ски неот­ли­чим от того что мы на­зы­ва­ем де­я­тель­но­стью ра­зу­ма. Что бы по­след­нее не озна­ча­ло.

Кста­ти, о ве­ро­ят­но­сти при по­стро­е­нии пред­ло­же­ний, я от­чет­ли­во помню пе­ри­од в глу­бо­ком дет­стве, когда вы­гля­деть "умным" было для меня очень важно и по­это­му го­во­рить "нужно" было слож­ны­ми, но ло­ги­че­ски пра­виль­но по­стро­ен­ны­ми пред­ло­же­ни­я­ми. Я ино­гда "за­стре­вал" в се­ре­дине непра­виль­но вы­бран­ной кон­струк­ции, ли­хо­ра­доч­но вы­ис­ки­вая сле­ду­ю­щее слово и це­поч­ку, ко­то­рая поз­во­лит мне вы­кру­тить­ся с наи­боль­шим ко­ли­че­ством ва­ри­ан­тов и со­хра­нить связь с на­ча­лом. Ни­че­го не на­по­ми­на­ет?

Аватар пользователя Doc_Mike
Doc_Mike (7 лет 2 месяца)

При­мер с за­ви­са­ни­ем при под­бо­ре слов ил­лю­стри­ру­ет, что на "ап­па­рат­ном уровне" мозг не при­спо­соб­лен к вы­чис­ле­нию ве­ро­ят­но­стей. 

Про­меж ушей ап­па­рат­но ре­а­ли­зо­ва­но па­рал­лель­ное умно­же­ние век­то­ра на мат­ри­цу, т.е. ли­ней­ный клас­си­фи­ка­тор. В роли век­то­ра ней­ро­наль­ные от­рост­ки с де­сят­ком тысяч па­рал­лель­но ра­бо­та­ю­щих си­нап­сов, ней­ро­ны скла­ды­ва­ют­ся в мат­ри­цу ней­ро­наль­ную ко­лон­ку и далее в ядра, тоже с па­рал­лель­ной ра­бо­той.

В ли­ней­ном клас­си­фи­ка­то­ре свои ошиб­ки, в виде непол­но­го сбора при­зна­ков,  и вы­хо­да си­ту­а­ции за пре­де­лы ранее из­вест­но­го. А в ве­ро­ят­ност­ных мо­де­лях свои глюки - за пра­виль­ный ответ счи­та­ют то, что более часто, а не то, что перед поль­зо­ва­те­лем в реале.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

я в этом не раз­би­ра­юсь - пока, или и не буду во­об­ще. У меня го­ло­ва и так как му­сор­ный ящик - от во­до­ро­да в ме­тал­лах до ядер­ной фи­зи­ки до гео­хи­мии и ме­ди­ци­ны, на­звать толь­ко несколь­ко об­ла­стей, и по уши - всем что по­па­ло для ре­ше­ния прак­ти­че­ских про­блем в про­ме­жут­ке в этих об­ла­стях. Ах да - те­перь еще и по­ли­ти­ка пы­та­ет­ся до­ба­вить­ся - вот хочу ма­ши­ну за­ста­вить за меня чи­тать. А я буду пи­сать (рус­ская шутка)smile1.gif 

Я не вижу как, на­при­мер, стан­дарт­ная feedforward ней­рон­ная сеть с одним двумя про­ме­жу­точ­ны­ми сло­я­ми - это умно­же­ние век­то­ра на мат­ри­цу, хотя и писал и тре­ни­ро­вал ру­ка­ми та­ко­вые для двух вполне прак­ти­че­ских при­ло­же­ний. И они ра­бо­та­ли. Будет надо - раз­бе­русь и пойму smile1.gif Пару лет назад делал ру­ка­ми ли­ней­ный би­нар­ный клас­си­фи­ка­тор - прямо на VBA в Excel для вполне кон­крет­ной прак­ти­че­ской за­да­чи - и он ра­бо­тал ве­ли­ко­леп­но, лучше, чем ав­то­ма­ти­че­ски тре­ни­ро­ван­ный каким-​то новым (тогда) и та­ин­ствен­ным  па­ке­том МАТ­ЛА­БА - ду­мать про ли­ней­ную ал­геб­ру с дю­жи­ной па­ра­мет­ров  почему-​то тоже не было надо. Будет надо - раз­бе­русь и буду ду­мать "как надо" если надо.  Сей­час у меня NLP и я толь­ко начал раз­би­рать­ся, может быть потом я пойму что вы тут на­пи­са­ли - и зачем оно нужно. Пока ма­те­ри­а­ла слиш­ком много и я про­сто раз­би­ра­юсь а  здесь по­де­лил­ся опять же прак­ти­че­ским при­ло­же­ни­ем и по­ка­зал (на мой взгляд) что это может де­лать каж­дый - по край­ней мере на уровне поль­зо­ва­те­ля "каль­ку­ля­то­ра" из ис­то­рии про ба­буш­ку ко­то­рую я рас­ска­зы­вал, так что не обес­судь­те .

Аватар пользователя Doc_Mike
Doc_Mike (7 лет 2 месяца)

Во­прос пред­став­ле­ния по­ня­тий, то ли ней­ро­се­ти как графы, то ли как век­то­ра с мат­ри­ца­ми, то ли во­об­ще мно­же­ствен­ные слои из мат­риц, но это уже не на­столь­ко уни­вер­саль­но из-за огра­ни­че­ний на раз­мер­но­сти пе­ре­мно­жа­е­мых мат­риц, да ещё на­коп­ле­ние глю­ков на каж­дом из слоёв. 

В любом слу­чае на "ап­па­рат­ном уровне" в мозге си­нап­сы сидят на ней­ро­наль­ных от­рост­ках ней­ро­нов, ней­ро­ны с от­рост­ка­ми сло­же­ны в ней­ро­наль­ные ко­лон­ки, и всё ша­ра­шит па­рал­лель­но. Что ма­те­ма­ти­че­ски пол­но­стью со­от­вет­ству­ет умно­же­нию век­то­ра на мат­ри­цу.

И ещё раз в любом слу­чае - как толь­ко под­ме­ши­ва­ют ве­ро­ят­но­сти, воз­ни­ка­ет си­стем­ный про­бой "пра­виль­но то, что часто", при этом боль­шая ве­ро­ят­ность од­но­го со­бы­тия не вы­чер­ки­ва­ет из ре­аль­но­сти менее ча­стые со­бы­тия. Гру­бый при­мер - некий ан­ти­био­тик по­мо­га­ет у 80% па­ци­ен­тов, но это не зна­чит, что у 20% па­ци­ен­тов не надо будет ме­нять те­ра­пию, или что врач убий­ца в белом ха­ла­те и его надо под суд.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

И ещё раз в любом слу­чае - как толь­ко под­ме­ши­ва­ют ве­ро­ят­но­сти, воз­ни­ка­ет си­стем­ный про­бой "пра­виль­но то, что часто", при этом боль­шая ве­ро­ят­ность од­но­го со­бы­тия не вы­чер­ки­ва­ет из ре­аль­но­сти менее ча­стые со­бы­тия. Гру­бый при­мер - некий ан­ти­био­тик по­мо­га­ет у 80% па­ци­ен­тов, но это не зна­чит, что у 20% па­ци­ен­тов не надо будет ме­нять те­ра­пию, или что врач убий­ца в белом ха­ла­те и его надо под суд.

это, ско­рее, на дру­гую тему .. (но мне по­нра­ви­лось). Я уже писал, что мне не уда­лось опре­де­лить "сред­не­го" па­ци­ен­та с sleep aponea по боль­шой базе дан­ных Сред­нее, ко­неч­но, есть - но его дис­пер­сия как у рас­пре­де­ле­ния Коши. А в 80% и 20% все ве­ро­ят­но­сти услов­ные - "по­мо­га­ет при усло­ви (-ии -ях) что.. " , по­это­му услов­ные 80% тоже при усло­вии. Вклю­чая, ве­ро­ят­ность того, что и первую те­ра­пию воз­мож­но можно было не на­зна­чать  smile1.gif  https://www.sciencedirect.com/topics/medicine-​and-dentistry/psychoneuroimmunology . Как ни­будь потом при слу­чае об­су­дим, на­вер­ное .. (сей­час занят)

Про уго­лов­ную от­вет­ствен­ность вра­чей со­гла­сен ~ уго­лов­ная от­вет­ствен­ность толь­ко при до­ка­зан­ной на­ме­рен­но­сти при­чи­нить вред. В целом врач дол­жен про­сто да­вать ре­ко­мен­да­ции и обя­за­тель­но под­чер­ки­вать (и по­ни­мать сам), что он - не Бог (и даже не бю­ро­крат из ми­ни­стер­ства, ко­то­рый все­гда знает всё даже лучше Бога). Сей­час это не со­всем мо­дель по­ве­де­ния боль­шин­ства прак­ти­ку­ю­щих вра­чей с па­ци­ен­том.  От­вет­ствен­ность долж­на быть на па­ци­ен­те. По-​моему, сей­час в Рос­сии при­мер­но этими по­прав­ка­ми  и за­ни­ма­ют­ся?

Аватар пользователя Doc_Mike
Doc_Mike (7 лет 2 месяца)

В ме­ди­цине надо быть спе­цом в опре­де­лён­ной ка­те­го­рии бо­ля­чек, чтобы хотя бы зад­ним чис­лом ин­тер­пре­ти­ро­вать, по­че­му кон­крет­ный па­ци­ент попал в 80%, или, на­про­тив, в 20%. А чисто ма­те­ма­ти­че­ски это глуш­няк.

Аватар пользователя Старикашка
Старикашка (10 лет 9 месяцев)

ИИ без че­лов­ка ге­не­ри­ру­ет зна­чи­тель­но менее раз­но­об­раз­ные ре­ше­ния (=во мно­гом «по­хо­жие», «стан­дарт­ные»), по срав­не­нию с лю­бы­ми дру­ги­ми ком­би­на­ци­я­ми......

Во­об­ще то ими­татр ин­тел­лек­та(или ариф­мо­метр) "без че­ло­ве­ка" во­об­ще ни­че­го не ге­не­ри­ру­етsmile3.gif​​​​​​​

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

я вам щас от­ве­чу как меня на­учи­ли мне на­пом­ни­ли недав­но - "да" smile1.gif

Аватар пользователя Старикашка
Старикашка (10 лет 9 месяцев)

И мне при­ят­но от­ве­тить вам "да" в ответ на:

прак­ти­че­ски все пуб­лич­ные фо­ру­мы в вы­со­кой сте­пе­ни за­сра­ны если не теми же за­пад­ны­ми ИИ чат-​ботами,то хох­ла­ми и со­труд­ни­ка­ми...........

имен­но так smile9.gif

Аватар пользователя qdsspb
qdsspb (12 лет 8 месяцев)

А на чем вы раз­во­ра­чи­ва­ние вот эти все вот мо­де­ли ло­каль­но?

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

мно­гие мо­де­ли до 6-8 GB дают уди­ви­тель­но хо­ро­шие ре­зуль­та­ты на Intel© Core™ i7-4790S CPU @ 3.20GHz × 4 c 16GB DDDR3 даже без CUDA  под Ubuntu. Дру­гая ма­ши­на АМД 5700х с 128GB DDR4 па­мя­ти и RTX 2070Ti, тоже Ubuntu. На этой можно гру­зить даже не кван­ти­зи­ро­ван­ные мо­де­ли прак­ти­че­ски лю­бо­го раз­ме­ра из до­ступ­ных, и карта, хотя и сла­бая по ны­неш­ним вре­ме­нам,  за­мет­но по­мо­га­ет, когда ее под­клю­ча­ешь. На этом ра­бо­тать вполне ком­фор­та­бель­но быст­ро. Есть и дру­гие ма­ши­ны где-​то по се­ре­дине клас­сом.  .. Под Windows 11 я не слиш­ком вни­ма­тель­но гонял, ра­бо­та­ло не очень быст­ро, ин­дек­са­цию ло­каль­ных до­ку­мен­тов и ра­бо­ту с ними по­сто­ян­но глю­чи­ло (а меня имен­но они и ин­те­ре­су­ют и я с ме­то­да­ми раз­би­ра­юсь на дан­ном этапе) и во­зить­ся не хо­те­лось  - мне на ли­нук­се удоб­нее и спо­кой­нее.

ЗЫ в ста­тье, если об­ра­ти­ли вни­ма­ние - в ос­нов­ном web interface c Copilot in MS Edge browser - ма­ши­на у них "там". И пока бес­плат­но. По­след­няя сверт­ка в ста­тье дей­стви­тель­но на ло­каль­ных мо­де­лях и, по-​моему, на про­цес­со­ре толь­ко

ЗЫ2 кста­ти, executable под Windows по-​моему огра­ни­чен 4GB, по­это­му, на­при­мер llamafile (на кар­тин­ке с из де­мо­кра­ти­че­ской  Бель­гии  в моем ком­мен­те выше) без от­де­ле­ния весов за­гру­зит­ся не со всеми мо­де­ля­ми - толь­ко с "ма­лень­ки­ми". В ли­нук­се этой про­бле­мы нет. 

Аватар пользователя qdsspb
qdsspb (12 лет 8 месяцев)

А какfя мо­дель на ваш взгляд самая непри­тя­за­тель­ная и адек­ват­ная?

тек­сто­вая.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

непри­тя­за­тель­ная и адек­ват­ная

я не за­ни­мал­ся си­сте­ма­ти­че­ским ана­ли­зом и вобщем недав­но начал - по­это­му опре­де­лен­но со­ве­то­вать не могу. На­вер­ное, это в первую оче­редь будет за­ви­сеть от того, что вы от нее хо­ти­те - на HuggingFace много мо­де­лей спе­ци­аль­но fine-​tuned на за­вер­ше­ние/на­пи­са­ние про­грамм­но­го кода, на­при­мер и тп - я такие не гонял. Меня сей­час боль­ше ин­те­ре­су­ет клас­си­фи­ка­ция и ана­лиз  тек­ста по вполне праг­ма­ти­че­ским при­чи­нам. Для этих целей я бы ска­зал по­дой­дет "любая нецен­зур­ная" smile1.gif мо­дель, до­ста­точ­но боль­шая, чтобы нор­маль­но "раз­го­ва­ри­вать". Мне по­ка­за­лось, что для ана­ли­за ло­каль­ных до­ку­мен­тов глав­ная про­бле­ма в пред­ва­ри­тель­ной об­ра­бот­ке тек­ста и то­ке­ни­за­ции еще до того как он по­па­да­ет в ос­нов­ную мо­дель. Я сей­час с этим раз­би­ра­юсь - толь­ко начал, на самом деле.  

Про­сто по­про­бо­вать - нач­ни­те что-​нибудь де­лать, не про­сто чи­тать - по­чи­тай­те на­при­мер Кас­пер­ско­го ста­тью, по­чи­тай­те про нецен­зур­ные мо­де­ли .. и по­че­му они нужны  здесь .Того же wig прямо здесь на Aftershock на рус­ском. Нач­ни­те с GPT4ALL (это при­ло­же­ние, не ChatGPT4smile1.gif). Там пол­но­стью GUI и код пи­сать  не нужно, но можно по­смот­реть как вли­я­ют раз­ные "внеш­ние" па­ра­мет­ры и как ведут себя раз­ные мо­де­ли - ну и глав­ное, по­чув­ство­вать себя более ком­фор­та­бель­но - важно в на­ча­леsmile1.gif.. Ис­поль­зу­ет GGUF (веса уже встро­е­ны в мо­дель).  Он плохо ра­бо­та­ет с ло­каль­ны­ми до­ку­мен­та­ми, есть баги - но про­ект "живой", они ра­бо­та­ют. Имей­те в виду, что он (по-​моему)  ра­бо­та­ет (пока) толь­ко с кван­ти­за­ци­ей 4_0 - но зато мо­де­ли можно гру­зить прямо из GUI кли­кая кно­поч­ки.

Есть за­бав­ный про­ект LLAMAFILE "всё в одном файле"  Там мно­же­ство опций - от ло­каль­но­го сер­ве­ра  для чата и до­ку­мен­тов  до кар­ти­нок. Ми­ни­маль­ное ко­ли­че­ство кода, внят­ная до­ку­мен­та­ция и то, что ком­пи­ли­ру­ет­ся легко по­смот­реть при же­ла­нии. Для ло­каль­но­го де­п­лой­мен­та очень удоб­но - ма­ши­ну можно пол­но­стью изо­ли­ро­вать (ото­рвать ин­тер­нет) после уста­нов­ки про­ек­та .. и тп

Для ма­зо­хи­стов спо­соб­ных ждать ми­ну­та­ми ответ в чате - можно GPT4ALL  (это НЕ  GPT4!!) и какую-​нибудь мо­дель в нем  даже на Raspbery Pi за­пу­стить (я не ма­зо­хист по­это­му не про­бо­вал smile1.gif )

Аватар пользователя qdsspb
qdsspb (12 лет 8 месяцев)

Спа­си­бо!

Аватар пользователя Sergio128
Sergio128 (6 лет 7 месяцев)

По тек­сто­вым мо­де­лям не скажу, но если ин­те­рес­но по за­да­че ге­не­ра­ции кар­ти­нок то рас­клад по Stable Diffusion такой:

Nvidia с 6 Gb vram - уже можно ге­не­ри­рт­вать изоб­ра­же­ния, на древ­ней gtx 1660 super минут 5 на изоб­ра­же­ние по­лу­чит­ся.

16 Gb ви­део­па­мя­ти - уже можно обу­чать свои Lora слои для 1024x1024 раз­ре­ше­ния SDXL сети. На Nvidia 4060ti 16Gb изоб­ра­же­ние за несколь­ко се­кунд ге­не­ри­ру­ет. Lora за полтора-​два часа обу­ча­ет­ся.

Про­цес­сор­ной опе­ра­тив­ной па­мя­ти же­ла­тель­но боль­ше 40 Гб, иначе будет силь­но ста­чи­вать ре­сурс ssd/nvme.

Раз­во­ра­чи­вал под вин­дой, там пай­тон веб-​приложения, с ко­то­ры­ми в бра­у­зе­ре вза­и­мо­дей­ству­ешь потом.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

я пока с тек­стом ра­бо­таю - но, да, хотел бы с кар­тин­ка­ми по­во­зить­ся. Дой­дут руки - спро­шу у вас для на­ча­ла

Аватар пользователя 3Cube
3Cube (1 год 8 месяцев)

По­про­буй­те https://github.com/oobabooga/text-​generation-webui

Мне нра­вит­ся мо­дель vicuna vizard 13b uncensored 

Ком­мен­та­рий ад­ми­ни­стра­ции:  
*** от­клю­чен (ад­во­кат пе­до­фи­лов) ***
Аватар пользователя qdsspb
qdsspb (12 лет 8 месяцев)

Спа­си­бо!

Аватар пользователя Shulz
Shulz (2 года 8 месяцев)

Какая вер­сия GPT те­сти­ро­ва­лась? Это очень важ­ный нюанс.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

в пер­вых двух при­ме­рах (сверт­ках в тек­сте) - я ее толь­ко что спро­сил smile1.gif - она ска­за­ла "по­след­няя вер­сия" GPT4 "очень без­опас­ная" smile1.gif

в ло­каль­ных при­ме­рах (по­след­няя сверт­ка в тек­сте) - orca-​mini-3b-​gguf2-q4_0 и dolphin2x5 4_K_M-  не GPT со­всем

Аватар пользователя 012345
012345 (2 года 12 месяцев)

По­ле­вые экс­пе­ри­мен­таль­ные дан­ные о вли­я­нии ис­кус­ствен­но­го ин­тел­лек­та..."

Об­суж­да­е­мое поле здесь, надо по­ла­гать, тор­си­он­ное.

По­сколь­ку в неаль­тер­на­тив­ной ре­аль­но­сти по­ле­вые дан­ные по­лу­ча­ют гео­ло­ги, био­ло­ги, гео­гра­фы - но уж никак не по­гро­ми­сты.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

" Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality"

".. кри­ти­ку­ешь - пред­ла­гай .." (тм) Пред­ло­жи­те луч­ший пе­ре­вод. Да, зву­чит ди­ко­ва­то, но мне было лень при­ду­мы­вать, тем более что они дей­стви­тель­но ра­бо­та­ли " в поле" - в ре­аль­но су­ще­ству­ю­щей ком­па­нии с их про­дук­том (обу­вью_ и с их людь­ми.

Аватар пользователя 012345
012345 (2 года 12 месяцев)

Пред­ло­жи­те луч­ший пе­ре­вод.

............................................................

они дей­стви­тель­но ра­бо­та­ли " в поле" - в ре­аль­но су­ще­ству­ю­щей ком­па­нии с их про­дук­том (обу­вью_ и с их людь­ми.

Пред­ла­гаю. Имеет место клас­си­че­ская под­ме­на по­ня­тий. Ко­то­рую, вме­сто чтобы го­нять сса­ны­ми тряп­ка­ми об­рат­но на за­па­д­эн­щи­ну раз­об­ла­чать, ти­ра­жи­ру­ют.

На этом у меня всё.

Аватар пользователя AlekZ
AlekZ (5 лет 9 месяцев)

Аватар пользователя 012345
012345 (2 года 12 месяцев)

Renée Newman

International Jewelry Publications

Gem & Jewelry
POCKET GUIDE
A traveler’s guide to buying diamonds, colored gems, pearls, gold and platinum jewelry